home *** CD-ROM | disk | FTP | other *** search
/ InfoMagic Standards 1994 January / InfoMagic Standards - January 1994.iso / ccitt / 1988 / troff / 2_3_04.tro < prev    next >
Text File  |  1991-12-12  |  155KB  |  5,462 lines

  1. .rs
  2. .\" Troff code generated by TPS Convert from ITU Original Files
  3. .\"                 Not Copyright ( c) 1991 
  4. .\"
  5. .\" Assumes tbl, eqn, MS macros, and lots of luck.
  6. .TA 1c 2c 3c 4c 5c 6c 7c 8c
  7. .ds CH
  8. .ds CF
  9. .EQ
  10. delim @@
  11. .EN
  12. .nr LL 40.5P
  13. .nr ll 40.5P
  14. .nr HM 3P
  15. .nr FM 6P
  16. .nr PO 4P
  17. .nr PD 9p
  18. .po 4P
  19.  
  20. .rs
  21. \v | 5i'
  22. .sp 1P
  23. .ce 1000
  24. \v'3P'
  25. SECTION\ 2
  26. .ce 0
  27. .sp 1P
  28. .ce 1000
  29. \fBFORECASTING\ OF\ TRAFFIC\fR 
  30. .ce 0
  31. .sp 1P
  32. .sp 2P
  33. .LP
  34. \fBRecommendation E.506\fR 
  35. .RT
  36. .sp 2P
  37. .sp 1P
  38. .ce 1000
  39. \fBFORECASTING\ INTERNATIONAL\ TRAFFIC\fR 
  40. .FS
  41. The old
  42. Recommendation\ E.506 which appeared in the \fIRed\ Book\fR was split into two
  43. Recommendations, revised E.506 and new E.507 and considerable new
  44. material was added to both.
  45. .FE
  46. .EF '%    Fascicle\ II.3\ \(em\ Rec.\ E.506''
  47. .OF '''Fascicle\ II.3\ \(em\ Rec.\ E.506    %'
  48. .ce 0
  49. .sp 1P
  50. .LP
  51. \fB1\fR     \fBIntroduction\fR 
  52. .sp 1P
  53. .RT
  54. .PP
  55. This Recommendation is the first in a series of three
  56. Recommendations that cover international telecommunications forecasting.
  57. .PP
  58. In the operation and administration of the international telephone
  59. network, proper and successful development depends to a large degree upon
  60. estimates for the future. Accordingly, for the planning of equipment and
  61. circuit provision and of telephone plant investments, it is necessary that
  62. Administrations forecast the traffic which the network will carry. In view 
  63. of the heavy capital investments in the international network, the economic 
  64. importance of the most reliable forecast is evident.
  65. .PP
  66. The purpose of this Recommendation is to give guidance on some of the prerequisites 
  67. for forecasting international telecommunications traffic. Base 
  68. data, not only traffic and call data but also economic, social and demographic 
  69. data, are of vital importance for forecasting. These data series may be 
  70. incomplete; strategies are recommended for dealing with missing data. Different 
  71. forecasting approaches are presented including direct and composite methods, 
  72. matrix forecasting, and top down and bottom up procedures.
  73. .PP
  74. Recommendation E.507 provides guidelines for building forecasting
  75. models and contains an overview of various forecasting techniques.
  76. Recommendation\ E.508 covers the forecasting of new international
  77. telecommunications services.
  78. .RT
  79. .LP
  80. .sp 2P
  81. .LP
  82. \fB2\fR     \fBBase data for forecasting\fR 
  83. .sp 1P
  84. .RT
  85. .PP
  86. An output of the international traffic forecasting process is the estimated 
  87. number of circuits required for each period in the forecast horizon. To 
  88. obtain these values, traffic engineering techniques are applied to forecast 
  89. Erlangs, a measure of traffic. Figure\ 1/E.506 outlines two different approaches 
  90. for determining forecasted Erlangs. 
  91. .PP
  92. The two different strategies for forecasting are the direct strategy and 
  93. the composite strategy. The first step in either process is to collect 
  94. raw data. These raw data, perhaps adjusted, will be the base data used 
  95. to generate the traffic forecasts. Base data may be hourly, daily, monthly, 
  96. quarterly, or annual. Most Administrations use monthly accounting data 
  97. for forecasting 
  98. purposes.
  99. .PP
  100. With the direct strategy, the traffic carried in Erlangs, or measured usage, 
  101. for each relation would be regarded as the base data in forecasting 
  102. traffic growth. These data may be adjusted to account for such occurrences 
  103. as regeneration (see Recommendation\ E.500). 
  104. .bp
  105. .RT
  106. .LP
  107. .rs
  108. .sp 32P
  109. .ad r
  110. \fBFigure 1/E.506, p. 1 
  111. .sp 1P
  112. .RT
  113. .ad b
  114. .RT
  115. .PP
  116. In both strategies (direct and composite) it is necessary to convert the 
  117. carried traffic into offered traffic Erlangs. The conversion formula can 
  118. be found in Recommendation\ E.501 for the direct strategy and in this 
  119. Recommendation for the composite strategy.
  120. .PP
  121. Composite forecasting uses historical international accounting data of 
  122. monthly paid minute traffic as the base data. The data may be adjusted 
  123. by a 
  124. number of factors, either before or after the forecasting process, that are
  125. used for converting paid minutes on the basis of the accounting data into
  126. busy\(hyhour Erlang forecasts.
  127. .PP
  128. As seen in Figure 1/E.506, the forecasting process is common to both the 
  129. direct and composite strategy. However, the actual methods or models used 
  130. in the process vary. Forecasts can be generated, for example, using traffic 
  131. matrix methods (see \(sc\ 4), econometric models or autoregressive models 
  132. (see \(sc\ 3, Recommendation\ E.507). There are various other data that 
  133. are input to the 
  134. forecasting process. Examples of these are explanatory variables, market
  135. segmentation information and price elasticities.
  136. .PP
  137. Wherever possible, both the direct and composite forecasting
  138. strategies should be used and compared. This comparison may reveal
  139. irregularities not evident from the use of only one method. Where these are
  140. significant, in particular in the case of the busy hour, the causes for the
  141. differences should be identified before the resulting forecast is adopted.
  142. .bp
  143. .PP
  144. In econometric modelling especially, explanatory variables are used to
  145. forecast international traffic. Some of the most important of these variables 
  146. are the following: 
  147. .RT
  148. .LP
  149.     \(em
  150.     exports,
  151. .LP
  152.     \(em
  153.     imports,
  154. .LP
  155.     \(em
  156.     degree of automation,
  157. .LP
  158.     \(em
  159.     quality of service,
  160. .LP
  161.     \(em
  162.     time differences between countries,
  163. .LP
  164.     \(em
  165.     tariffs,
  166. .LP
  167.     \(em
  168.     consumer price index, and
  169. .LP
  170.     \(em
  171.     gross national product.
  172. .PP
  173. Other explanatory variables, such as foreign business travellers and nationals 
  174. living in other countries, may also be important to consider. It is recommended 
  175. that data bases for explanatory variables should be as 
  176. comprehensive as possible to provide more information to the forecasting
  177. process.
  178. .PP
  179. Forecasts may be based on market segmentation. Base data may be
  180. segmented, for example, along regional lines, by business, non\(hybusiness, 
  181. or by type of service. Price elasticities should also be examined, if possible, 
  182. to 
  183. quantify the impact of tariffs on the forecasting data.
  184. .RT
  185. .LP
  186. .sp 2P
  187. .LP
  188. \fB3\fR     \fBComposite strategy \(em Conversion method\fR 
  189. .sp 1P
  190. .RT
  191. .PP
  192. The monthly paid\(hyminutes traffic is converted to busy\(hyhour Erlangs 
  193. for dimensioning purposes by the application of a number of traffic related 
  194. conversion factors for each service category. The conversion is carried 
  195. out in accordance with the formula: 
  196. \v'6p'
  197. .RT
  198. .ce 1000
  199. \fIA\fR = \fIMdh\fR /60\fIe\fR 
  200. .ce 0
  201. .ad r
  202. (3\(hy1)
  203. .ad b
  204. .RT
  205. .LP
  206. .sp 1
  207. .LP
  208. where
  209. .LP
  210.     \fIA\fR     is the estimated mean traffic in the busy hour,
  211. .LP
  212.     \fIM\fR     is the monthly paid\(hyminutes,
  213. .LP
  214.     \fId\fR     is day\(hyto\(hymonth ratio,
  215. .LP
  216.     \fIh\fR     is the busy hour\(hyto\(hyday ratio, and
  217. .LP
  218.     \fIe\fR     is the efficiency factor.
  219. .PP
  220. The formula is described in detail in Annex A.
  221. .LP
  222. .sp 2P
  223. .LP
  224. \fB4\fR     \fBProcedures for \fR \fBtraffic matrix forecasting\fR 
  225. .sp 1P
  226. .RT
  227. .sp 1P
  228. .LP
  229. \fB
  230. 4.1
  231.     \fIIntroduction\fR 
  232. .sp 9p
  233. .RT
  234. .PP
  235. To use traffic matrix or point\(hyto\(hypoint forecasts the following
  236. procedures may be used:
  237. .RT
  238. .LP
  239.     \(em
  240.     Direct point\(hyto\(hypoint forecasts,
  241. .LP
  242.     \(em
  243.     Kruithof's method,
  244. .LP
  245.     \(em
  246.     Extension of Kruithof's method,
  247. .LP
  248.     \(em
  249.     Weighted least squares method.
  250. .PP
  251. It is also possible to develop a Kalman Filter model for
  252. point\(hyto\(hypoint traffic taking into account the aggregated forecasts. 
  253. Tu and 
  254. Pack describe such a model in\ [16].
  255. .PP
  256. The forecasting procedures can be used to produce forecasts of
  257. internal traffic within groups of countries, for example, the Nordic countries. 
  258. Another application is to produce forecasts for national traffic on various 
  259. levels.
  260. .RT
  261. .LP
  262. .sp 1P
  263. .LP
  264. 4.2
  265.     \fIDirect point\(hyto\(hypoint forecasts\fR 
  266. .sp 9p
  267. .RT
  268. .PP
  269. It is possible to produce better forecasts for accumulated traffic than 
  270. forecast of traffic on a lower level. 
  271. .PP
  272. Hence, forecasts of outgoing traffic (row sum) or incoming traffic
  273. (column sum) between one country and a group of countries will give a
  274. relatively higher precision than the separate forecasts between countries.
  275. .bp
  276. .PP
  277. In this situation it is possible to adjust the individual forecasts by 
  278. taking into account the aggregated forecasts. 
  279. .PP
  280. On the other hand, if the forecasts of the different elements in the traffic 
  281. matrix turn out to be as good as the accumulated forecasts, then it is 
  282. not necessary to adjust the forecasts. 
  283. .PP
  284. Evaluation of the relative precision of forecasts may be carried out by 
  285. comparing the ratios \(*\*^s(\fIX\fR )/\fIX\fR where \fIX\fR is the forecast 
  286. and \(*\*^s(\fIX\fR ) the estimated forecast error. 
  287. .RT
  288. .sp 1P
  289. .LP
  290. 4.3
  291.     \fIKruithof's method\fR 
  292. .sp 9p
  293. .RT
  294. .PP
  295. Kruithof's method [11] is well known. The method uses the last
  296. known traffic matrix and forecasts of the row and column sum to make forecasts 
  297. of the traffic matrix. This is carried out by an efficient iteration 
  298. procedure.
  299. .PP
  300. Kruithof's method does not take into account the change over time in the 
  301. point\(hyto\(hypoint traffic. Because Kruithof's method only uses the last 
  302. known traffic matrix, information on the previous traffic matrices does 
  303. not 
  304. contribute to the forecasts. This would be disadvantageous. Especially 
  305. when the growth of the distinct point\(hyto\(hypoint traffic varies. 
  306. Also when the traffic matrices reflect
  307. seasonal data, Kruithof's method may give poor forecasts.
  308. .RT
  309. .sp 1P
  310. .LP
  311. 4.4
  312.     \fIExtension of Kruithof's method\fR 
  313. .sp 9p
  314. .RT
  315. .PP
  316. The traditional Kruithof's method is a projection of the traffic
  317. based on the last known traffic matrix and forecasts of the row and column
  318. sums.
  319. .PP
  320. It is possible to extend Kruithof's method by taking into account not only 
  321. forecasts of the row and column but also forecasts of point\(hyto\(hypoint 
  322. traffic. Kruithof's method is then used to adjust the point\(hyto\(hypoint 
  323. traffic forecasts to obtain consistency with the forecasts of row and column 
  324. sums. 
  325. .PP
  326. The extended Kruithof's method is superior to the traditional
  327. Kruithof's method and is therefore recommended.
  328. .RT
  329. .LP
  330. .sp 1P
  331. .LP
  332. 4.5
  333.     \fIWeighted least squares method\fR 
  334. .sp 9p
  335. .RT
  336. .PP
  337. Weighted least squares method is again an extension of the last
  338. method. Let { fIC\fR\d\fIi\fR\\d\fIj\fR\ }  { fIC\fR\d\fIi\fR\u } and { fIC.\fI\d\fIj\fR\ } 
  339. be 
  340. forecasts of point\(hyto\(hypoint traffic, row sums and column sums respectively. 
  341. .PP
  342. The extended Kruithof's method assumes that the row and column sums
  343. are \*Qtrue\*U and adjust { fIC\fR\d\fIi\fR\\d\fIj\fR\ } to obtain consistency.
  344. .PP
  345. The weighted least squares method [2] is based on the assumption that both 
  346. the point\(hyto\(hypoint forecasts and the row and column sum forecasts 
  347. are 
  348. uncertain. A reasonable way to solve the problem is to give the various
  349. forecasts different weights.
  350. .PP
  351. Let the weighted least squares forecasts be { fID\fR\d\fIi\fR\\d\fIj\fR\ }  
  352. The square sum \fIQ\fR is defined by: 
  353. \v'6p'
  354. .RT
  355. .ce 1000
  356. \fIQ\fR = 
  357. @ pile { sum above \fIij\fR } @\fIa\fR\d\fIi\fR\\d\fIj\fR\u(\fIC\fR\d\fIi\fR\\d\fIj\fR\u\(em \fID\fR\d\fIi\fR\\d\fIj\fR\u)\u2\d+
  358. @ pile { sum above \fIi\fR } @
  359. \fIb\fR\d\fIi\fR\u(\fIC\fR\d\fIi\fR\u. \(em \fID\fR\d\fIi\fR\u.)\u2\d+
  360. @ pile { sum above \fIj\fR } @
  361. \fIc\fR\d\fIj\fR\u(\fIC.\fI\d\fIj\fR\u\(em \fID.\fI\d\fIj\fR\u)\u2\d
  362. .ce 0
  363. .ad r
  364. (4\(hy1)
  365. .ad b
  366. .RT
  367. .LP
  368. .sp 1
  369. where { fIa\fR\d\fIi\fR\\d\fIj\fR\ }  { fIb\fR\d\fIi\fR\u\ }  { fIc\fR\d\fIj\fR\ } 
  370. are chosen constants or weights. 
  371. .LP
  372. .PP
  373. The weighted least squares forecast is found by:
  374. \v'6p'
  375. .LP
  376.     @ pile { { in\fIQ\fR~BOCAD15\fR (\fID\fR\d\fIi\fR\\d\fIj\fR\u)  } above { \fID\fR\d\fIi\fR\\d\fIj\fR\ } } @ 
  377. .LP
  378. .sp 1
  379. subject to
  380. \v'6p'
  381. .ad r
  382.     \fID\fR\d\fIi\fR\u. = 
  383. @ pile { sum above \fIj\fR } @ \fID\fR\d\fIi\fR\\d\fIj\fR\u\ \ \fIi\fR = 1, 2, . |  | 
  384. (4\(hy2)
  385. .ad b
  386. .RT
  387. .LP
  388. .sp 1
  389. and
  390. \v'6p'
  391. .LP
  392.     \fID.\fI\d\fIj\fR\u= 
  393. @ pile { sum above \fIi\fR } @ \fID\fR\d\fIi\fR\\d\fIj\fR\u\ \ \fIj\fR = 1, 2, . |  | 
  394. .LP
  395. .sp 1
  396. .bp
  397. .PP
  398. A natural choice of weights is the inverse of the variance of the forecasts. 
  399. One way to find an estimate of the standard deviation of the 
  400. forecasts is to perform ex\(hypost forecasting and then calculate the root mean
  401. square error.
  402. .PP
  403. The properties of this method are analyzed in [14].
  404. .RT
  405. .LP
  406. .sp 2P
  407. .LP
  408. \fB5\fR     \fBTop down and bottom up methods\fR 
  409. .sp 1P
  410. .RT
  411. .sp 1P
  412. .LP
  413. 5.1
  414.     \fIChoice of model\fR 
  415. .sp 9p
  416. .RT
  417. .PP
  418. The object is to produce forecasts for the traffic between
  419. countries.  For this to be a sensible procedure, it is necessary that the
  420. traffic between the countries should not be too small, so that the forecasts
  421. may be accurate. A method of this type is usually denoted as \*Qbottom up\*U.
  422. .PP
  423. Alternatively, when there is a small amount of traffic between the
  424. countries in question, it is better to start out with forecasting the traffic 
  425. for a larger group of countries. These forecasts are often used as a basis 
  426. for forecasts for the traffic to each country. This is done by a correction 
  427. procedure to be described in more detail below. Methods of this type are 
  428. called \*Qtop down\*U. The following comments concern the preference of 
  429. one method over 
  430. another.
  431. .PP
  432. Let \(*s\fI\fI\d\fIT\fR\u\u2\d be the variance of the aggregated forecast, and
  433. \(*s\fI\fI\d\fIi\fR\u\u2\d be the variance of the local forecast\ No.\ 
  434. \fIi\fR and \(*g\fI\fI\d\fIi\fR\\d\fIj\fR\ube 
  435. the covariance of the local forecast\ No.\ \fIi\fR and\ \fIj\fR . If the 
  436. following 
  437. inequality is true:
  438. \v'6p'
  439. .RT
  440. .ad r
  441. .ad b
  442. .RT
  443. .LP
  444. then, in general, it is not recommended to use the bottom up method, but 
  445. to use the top down method. 
  446. .PP
  447. In many situations it is possible to use a more advanced
  448. forecasting model on the aggregated level. Also, the data on an aggregated
  449. level may be more consistent and less influenced by stochastic changes 
  450. compared to data on a lower level. Hence, in most cases the inequality 
  451. stated above will be satisfied for small countries. 
  452. .sp 1P
  453. .LP
  454. 5.2
  455.     \fIBottom up method\fR 
  456. .sp 9p
  457. .RT
  458. .PP
  459. As outlined in \(sc 5.1 the bottom up method is defined as a
  460. procedure for making separate forecasts of the traffic between different
  461. countries directly. If the inequality given in \(sc\ 5.1 is not satisfied,
  462. which may be the case for large countries, it is sufficient to use the
  463. bottom up method. Hence, one of the forecasting models mentioned in
  464. Recommendation\ E.507 can be used to produce traffic forecasts for different
  465. countries.
  466. .RT
  467. .sp 1P
  468. .LP
  469. 5.3
  470.     \fITop down procedure\fR 
  471. .sp 9p
  472. .RT
  473. .PP
  474. In most cases the top down procedure is recommended for producing forecasts 
  475. of international traffic for a small country. In Annex\ D a 
  476. detailed example of such a forecasting procedure is given.
  477. .PP
  478. The first step in the procedure is to find a forecasting model on the aggregated 
  479. level, which may be a rather sophisticated model. Let \fIX\fR\d\fIT\fR\ube 
  480. the traffic forecasts on the aggregated level and \(*s\fI\fI\d\fIT\fR\uthe 
  481. estimated standard 
  482. deviation of the forecasts.
  483. .PP
  484. The next step is to develop separate forecasting models of traffic to different 
  485. countries. Let \fIX\fR\d\fIi\fR\ube the traffic forecast to the 
  486. \fIi\fR \ut\d\uh\d country and \(*\*"s\fI\fI\d\fIi\fR\uthe standard deviation. 
  487. Now, the 
  488. separate
  489. forecasts [\fIX\fR\d\fIi\fR\u] have to be corrected by taking into account the
  490. aggregated forecasts \fIX\fR\d\fIT\fR\u. We know that in general
  491. \v'6p'
  492. .RT
  493. .ad r
  494. .ad b
  495. .RT
  496. .PP
  497. Let the corrections of [\fIX\fR\d\fIi\fR\u] be [\fIX`\fI\d\fIi\fR\u],
  498. and the corrected aggregated forecast then be
  499. \fIX`\fI\d\fIT\fR\u= \(*s" \fIX`\fI\d\fIi\fR\u.
  500. .PP
  501. The procedure for finding [\fIX`\fI\d\fIi\fR\u] is described in
  502. Annex C.
  503. .bp
  504. .RT
  505. .sp 2P
  506. .LP
  507. \fB6\fR     \fBForecasting methods when observations are missing\fR 
  508. .sp 1P
  509. .RT
  510. .sp 1P
  511. .LP
  512. 6.1
  513.     \fIIntroduction\fR 
  514. .sp 9p
  515. .RT
  516. .PP
  517. Most forecasting models are based on equally spaced time series. If one 
  518. observation or a set of observations are missing, it is necessary either 
  519. to use an estimate of missing observations and then use the forecasting 
  520. model or to modify the forecasting model. 
  521. .PP
  522. All smoothing models are applied on equally spaced observations. Also autoregressive 
  523. integrated moving average (ARIMA)\(hymodels operate on equally 
  524. spaced time series, while regression
  525. models work on irregularly spaced observations without modifications.
  526. .PP
  527. In the literature it is shown that most forecasting methods can be
  528. formulated as dynamic linear models (DLM). The Kalman Filter is a linear
  529. method to estimate states in a time series which is modelled as a dynamic
  530. linear model. The Kalman Filter introduces a recursive procedure to calculate 
  531. the forecasts in a DLM which is optimal in the sense of minimizing the 
  532. mean 
  533. squared one step ahead forecast error. The Kalman Filter also gives an 
  534. optimal solution in the case of missing data. 
  535. .RT
  536. .LP
  537. .sp 1P
  538. .LP
  539. 6.2
  540.     \fIAdjustment procedure based on comparable observations\fR 
  541. .sp 9p
  542. .RT
  543. .PP
  544. In situations when some observations are missing, it may be
  545. possible to use related data for estimating the missing observations. For
  546. instance, if measurements are carried out on a set of trunk groups in the 
  547. same area, then the traffic measurements on various trunk groups are correlated, 
  548. which means that traffic measurements on a given trunk group to a certain
  549. degree explain traffic measurements on other trunk groups.
  550. .PP
  551. When there is high correlation between two time series of traffic
  552. measurements, the relative change in level and trend will be of the same size.
  553. .PP
  554. Suppose that a time series \fIx\fR\d\fIt\fR\uof equidistant observations 
  555. from 1 to \fIn\fR  | as an inside gap | (mu | fIx\fR\d\fIt\fR\uis, for 
  556. instance, the yearly increase. The gap consists of \fIk\fR missing observations 
  557. between\ \fIr\fR and\ \fIr\fR + \fIk\fR + 1. 
  558. .PP
  559. A procedure for estimating the missing observations is given by the
  560. following steps:
  561. .RT
  562. .LP
  563.     i)
  564.     Examine similar time series to the series with missing
  565. observations and calculate the cross correlation.
  566. .LP
  567.     ii)
  568.     Identify time series with high cross correlation at lag
  569. zero.
  570. .LP
  571.     iii)
  572.      Calculate the growth factor ?63\fI\fI\d\fIr\fR\\d+\u\fI\fI\d\fIi\fR\ubetween 
  573. \fIr\fR and \fIr\fR + \fIk\fR of the similar time series\ \fIy\fR\d\fIt\fR\u: 
  574. \v'6p'
  575. .ad r
  576. .ad b
  577. .RT
  578. .LP
  579.     iv)
  580.     Estimates of the missing observations are then given
  581. by:
  582. \v'6p'
  583. .ce 1000
  584. \fI\*^x\fI\fI\d\fIr\fR\\d+\u\fI\fI\d\fIi\fR\u= \fIx\fR\d\fIr\fR\u+ ?63\fI\fI\d\fIr\fR\\d+\u\fI\fI\d\fIi\fR\u(\fIx 
  585. \dr\fR +\fIk\fR +1
  586. \u \(em \fIx\fR\d\fIr\fR\u)\ \ 
  587. \fIi\fR = 1, 2, . |  |  \fIk\fR 
  588. .ce 0
  589. .ad r
  590. (6\(hy2)
  591. .ad b
  592. .RT
  593. .LP
  594. .sp 1
  595. .LP
  596.     \fIExample\fR 
  597. .PP
  598. Suppose we want to forecast the time series \fIx\fR\d\fIt\fR\u. The
  599. series is observed from 1\ to 10, but the observations 
  600. at time\ 6, 7 and\ 8 are missing. However a related time series\ \fIy\fR\d\fIt\fR\uis 
  601. measured. The measurements 
  602. are given 
  603. in Table\ 1/506.
  604. .RT
  605. .ce
  606. \fBH.T. [T1.506]\fR 
  607. .ce
  608. TABLE\ 1/E.506
  609. .ce
  610. \fBMeasurements of two related time series; one with missing
  611. .ce
  612. \fBobservations\fR 
  613. .ps 9
  614. .vs 11
  615. .nr VS 11
  616. .nr PS 9
  617. .TS
  618. center box;
  619. cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) .
  620. \fIt\fR    1    2    3    4    5    6    7    8    9    10
  621. _
  622. .T&
  623. cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) .
  624. \fIx\fI    100    112    125    140    152    \(em    \(em    \(em    206    221
  625. .T&
  626. cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) .
  627. \fIy\fI    300    338    380    422    460    496    532    574    622    670
  628. _
  629. .TE
  630. .nr PS 9
  631. .RT
  632. .ad r
  633. \fBTable 1/E.506 [T1.506], p. 
  634. .sp 1P
  635. .RT
  636. .ad b
  637. .RT
  638. .LP
  639. .bp
  640. .PP
  641. The last known observation of \fIx\fR\d\fIt\fR\ubefore the gap at time 
  642. 5 is 152, while the first known observation after the gap at time\ 9 is\ 
  643. 206. 
  644. .PP
  645. Hence \fIr\fR = 5 and \fIk\fR = 3. The calculation gives:
  646. \v'6p'
  647. .RT
  648. .ad r
  649. .ad b
  650. .RT
  651. .sp 1P
  652. .LP
  653. 6.3
  654.     \fIModification of forecasting models\fR 
  655. .sp 9p
  656. .RT
  657. .PP
  658. The other possibility for handling missing observations is to
  659. extend the forecasting models with specific procedures. When observations 
  660. are missing, a modified procedure, instead of the ordinary forecasting 
  661. model, is 
  662. used to estimate the traffic.
  663. .PP
  664. To illustrate such a procedure we look at simple exponential
  665. smoothing. The simple exponential smoothing model is expressed by:
  666. \v'6p'
  667. .RT
  668. .ce 1000
  669. \(*\*^m\fI\fI\d\fIt\fR\u= (1 \(em \fIa\fR ) \fIy\fR\d\fIt\fR\u+ \fIa\fR 
  670. \(*\*^m\fI\fI\d\fIt\fR\\d\\u(em\d1\u 
  671. .ce 0
  672. .ad r
  673. (6\(hy3)
  674. .ad b
  675. .RT
  676. .LP
  677. .sp 1
  678. where
  679. .LP
  680.     \fIy\fR\d\fIt\fR\uis the measured traffic at time \fIt\fR 
  681. .LP
  682.     \(*\*^m\fI\fI\d\fIt\fR\uis the estimated level at time \fIt\fR 
  683. .LP
  684.     \fIa\fR  | s the discount factor [and (1 \(em \fIa\fR ) is the smoothing
  685. parameter].
  686. .PP
  687. Equation (6\(hy3) is a recursive formula. The recursion starts at
  688. time 1 and ends at \fIn\fR  | if no observation is missing. Then a one 
  689. step ahead 
  690. forecast is given by:
  691. \v'6p'
  692. .ce 1000
  693. \fI\*^y\fI\d\fIt\fR\u(1) = \(*\*^m\fI\fI\d\fIt\fR\u
  694. .ce 0
  695. .ad r
  696. (6\(hy4)
  697. .ad b
  698. .RT
  699. .PP
  700. .sp 1
  701. If some observations lying in between 1 and \fIn\fR  | are missing, then it
  702. is necessary to modify the recursion procedure. Suppose now that \fIy\fR\d1\u, 
  703. \fIy\fR\d2\u, . |  | , \fIy\fR\d\fIr\fR\u, \fIy 
  704. \dr\fR +\fIk\fR +1
  705. \u, \fIy
  706. \dr\fR +\fIk\fR +2
  707. \u,  . |  | ,
  708. \fIy\fR\d\fIn\fR\uare known and \fIy\fR\d\fIr\fR\\d+\\d1\u, \fIy\fR\d\fIr\fR\\d+\\d2\u, 
  709. . |  | , 
  710. \fIy\fR\d\fIr\fR\\d+\u\fI\fI\d\fIk\fR\uare unknown. Then the time series 
  711. has a gap consisting of \fIk\fR missing observations. 
  712. .PP
  713. The following modified forecasting model for simple exponential
  714. smoothing is proposed in Aldrin\ [2].
  715. \v'6p'
  716. .RT
  717. .ad r
  718. .ad b
  719. .RT
  720. .LP
  721. where
  722. \v'6p'
  723. .ce 1000
  724. \fIa\fR\d\fIk\fR\u= 
  725. @ { fIa\fR } over { ~+~\fIk\fR (1\(em\fIa\fR )\u2\d } @ 
  726. .ce 0
  727. .ad r
  728. (6\(hy6)
  729. .ad b
  730. .RT
  731. .LP
  732. .sp 1
  733. .bp
  734. .PP
  735. By using the (6\(hy5) and (6\(hy6) it is possible to skip the recursive 
  736. procedure in the gap between \fIr\fR and 
  737. \fIr\fR \ +\ \fIk\fR \ +\ 1.
  738. .PP
  739. In Aldrin [2] similar procedures are proposed for the following
  740. forecasting models:
  741. .RT
  742. .LP
  743.     \(em
  744.     Holt's method,
  745. .LP
  746.     \(em
  747.     Double exponential smoothing,
  748. .LP
  749.     \(em
  750.     Discounted least squares method with level and trend,
  751. .LP
  752.     \(em
  753.     Holt\(hyWinters seasonal methods.
  754. .PP
  755. Wright [17] and [18] also suggests specific procedures to modify the smoothing 
  756. models when observations are missing. 
  757. .PP
  758. As mentioned in the first paragraph, regression models are invariant of 
  759. missing observations. When using the least squares method, all observations 
  760. are given the same weight. Hence, missing observations do not affect the 
  761. estimation procedure and forecast are made in the usual way.
  762. .PP
  763. On the other hand it is necessary to modify ARIMA models when
  764. observations are missing. In the literature several procedures are suggested 
  765. in the presence of missing data. The basic idea is to formulate the ARIMA 
  766. model as a dynamic linear model. Then the likelihood function is easy to 
  767. obtain and the parameters in the model can be estimated recursively. References 
  768. to work on 
  769. this field are Jones\ [9] and\ [10], Harvey and Pierse\ [8], Ansley and 
  770. Kohn\ [3] and Aldrin\ [2]. 
  771. .PP
  772. State space models or dynamic linear models and the Kalman Filter are a 
  773. large class of models. Smoothing models, ARIMA models and regression 
  774. models may be formulated as dynamic linear models. This is shown, for instance, 
  775. in Abraham and Ledolter\ [1]. 
  776. Using dynamic linear models and the Kalman Filter
  777. the parameters in the model are estimated in a recursive way. The description 
  778. is given, for instance, in Harrison and Stevens\ [7], Pack and Whitaker\ 
  779. [13], 
  780. Moreland\ [12], Szelag\ [15] and Chemouil and Garnier\ [6].
  781. .PP
  782. In Jones [9] and [10], Barham and Dunstan [4], Harvey and Pierse [8], Aldrin\ 
  783. [2] and B\o"\(*s/"lviken\ [5] it is shown how the dynamic linear models 
  784. and the Kalman Filter handle missing observations. 
  785. \v'1P'
  786. .RT
  787. .ce 1000
  788. ANNEX\ A
  789. .ce 0
  790. .ce 1000
  791. (to Recommendation E.506)
  792. .sp 9p
  793. .RT
  794. .ce 0
  795. .ce 1000
  796. \fBComposite strategy\fR 
  797. .sp 1P
  798. .RT
  799. .ce 0
  800. .LP
  801. A.1
  802.     \fIIntroduction\fR 
  803. .sp 1P
  804. .RT
  805. .PP
  806. This annex describes a method for estimating international
  807. traffic based on monthly paid\(hyminutes and a number of conversion factors.
  808. It demonstrates the method by examining the factors and showing their utility.
  809. .PP
  810. The method is seen to have two main features:
  811. .RT
  812. .LP
  813.     1)
  814.     Monthly paid\(hyminutes exchanged continuously between
  815. Administrations for accounting purposes provide a large and
  816. continuous volume of data.
  817. .LP
  818.     2)
  819.     Traffic conversion factors are relatively stable, when
  820. compared with traffic growth and change slowly since they are governed by
  821. customers' habits and network performance. By separately
  822. considering the paid minutes and the traffic conversion factors,
  823. we gain an insight into the nature of traffic growth which
  824. cannot be obtained by circuit occupancy measurements alone.
  825. Because of the stability of the conversion factors, these may be
  826. measured using relatively small samples, thus contributing to
  827. the economy of the procedure.
  828. .sp 2P
  829. .LP
  830. A.2
  831.     \fIBasic procedure\fR 
  832. .sp 1P
  833. .RT
  834. .sp 1P
  835. .LP
  836. A.2.1
  837.     \fIGeneral\fR 
  838. .sp 9p
  839. .RT
  840. .PP
  841. The composite strategy is carried out for each stream,
  842. for each direction and generally for each service category.
  843. .bp
  844. .PP
  845. The estimated mean offered busy\(hyhour traffic (in Erlangs) is derived 
  846. from the monthly paid\(hyminutes using the formula: 
  847. \v'6p'
  848. .RT
  849. .ce 1000
  850. \fIA\fR = \fIMdh\fR /60\fIe\fR 
  851. .ce 0
  852. .ad r
  853. (A\(hy1)
  854. .ad b
  855. .RT
  856. .LP
  857. .sp 1
  858. .LP
  859. where
  860. .LP
  861.     \fIA\fR     is the estimated mean traffic in Erlangs offered in the
  862. busy hour,
  863. .LP
  864.     \fIM\fR     is the total monthly paid\(hyminutes,
  865. .LP
  866.      \fId\fR is the day/month ratio, i.e.\ the ratio of average weekday paid\(hytime 
  867. to monthly paid\(hytime, 
  868. .LP
  869.     \fIh\fR     is the busy\(hyhour/day ratio, i.e.\ the ratio of the
  870. busy\(hyhour paid\(hytime to the average daily paid\(hytime,
  871. .LP
  872.     \fIe\fR     is the efficiency factor, i.e.\ the ratio of busy\(hyhour
  873. paid\(hytime to busy\(hyhour occupied\(hytime.
  874. .sp 1P
  875. .LP
  876. A.2.2
  877.     \fIMonthly paid\(hyminutes (M)\fR 
  878. .FS
  879. In a situation
  880. where only yearly paid\(hyminutes are available, this may be converted 
  881. to \fIM\fR by a suitable factor. 
  882. .FE
  883. .sp 9p
  884. .RT
  885. .PP
  886. The starting point for the composite strategy is paid minutes.
  887. Sudden changes in subscriber demand, for example, resulting from improvements 
  888. in transmission quality, have a time constant of the order of several months, 
  889. and on this basis paid minutes accumulated over monthly intervals appear 
  890. to be optimum in terms of monitoring traffic growth. A longer period (e.g.\ 
  891. annually) tends to mask significant changes, whereas a shorter period (e.g.\ 
  892. daily) not 
  893. only increases the amount of data, but also increases the magnitude of
  894. .PP
  895. fluctuations from one period to the next. A further advantage of the one\(hymonth 
  896. period is that monthly paid\(hyminute figures are exchanged between 
  897. Administrations for accounting purposes and consequently historical records
  898. covering many years are normally readily available.
  899. .PP
  900. It should be recognized, however, that accounting information
  901. exchanges between Administrations often take place after the event, and 
  902. it may take some time to reach full adjustments (e.g.\ collect call traffic). 
  903. .RT
  904. .sp 1P
  905. .LP
  906. A.2.3
  907.     \fIDay/month ratio (d)\fR 
  908. .sp 9p
  909. .RT
  910. .PP
  911. This ratio is related to the amount of traffic carried on a typical weekday 
  912. compared with the total amount of traffic carried in a month. 
  913. .PP
  914. As the number of weekdays and non\(hyweekdays (weekends and holidays)
  915. varies month by month, it is not convenient to refer to a typical month, 
  916. but it should be possible to compute the ratio for the month for which 
  917. the busy hour traffic is relevant. 
  918. .PP
  919. Hence if:
  920. .RT
  921. .LP
  922.     \fIX\fR     denotes the number of weekdays in the related month
  923. .LP
  924.     \fIY\fR     denotes the number of non\(hyweekdays (weekend days and
  925. holidays) in the selected month, then
  926. \v'6p'
  927. .ce 1000
  928. [ Formula deleted ]
  929. .ce 0
  930. .ad r
  931. (A\(hy2)
  932. .ad b
  933. .RT
  934. .LP
  935. .sp 1
  936. .LP
  937. where
  938. \v'6p'
  939. .sp 1P
  940. .ce 1000
  941. \fIr\fR = 
  942. @ { verage~non\(hyweekday~traffic } over { verage~weekday~traffic } @ 
  943. .ce 0
  944. .sp 1P
  945. .PP
  946. .sp 1
  947. The relative amount of non\(hyweekday traffic is very sensitive to
  948. the relative amount of social contact between origin and destination. (Social 
  949. calls, are, in general, made more frequently on weekends.) Since changes 
  950. in 
  951. such social contact would be very slow, \fIr\fR or \fId\fR are expected 
  952. to be the most stable conversion factors, which in general vary only within 
  953. relatively narrow limits. However, tariff policies such as reduced weekend 
  954. rates can have a 
  955. significant effect on \fIr\fR and\ \fId\fR .
  956. .bp
  957. .PP
  958. When \fIr\fR is in the region of 1, the Sunday traffic may exceed the
  959. typical weekday level. If this is the case, consideration should be given to
  960. dimensioning the route to cater for the additional weekend (Sunday) traffic 
  961. or adopting a suitable overflow routing arrangement. 
  962. .RT
  963. .sp 1P
  964. .LP
  965. A.2.4
  966.     \fIBusy\(hyhour/day ratio (h)\fR 
  967. .sp 9p
  968. .RT
  969. .PP
  970. The relative amount of average weekday traffic in the busy hour
  971. primarily depends on the difference between the local time at origin and
  972. destination. Moderately successful attempts have been made to predict the
  973. diurnal distribution of traffic based on this information together with
  974. supposed \*Qdegree of convenience\*U at origin and destination. However, 
  975. sufficient discrepancies exist to warrant measuring the diurnal distribution, 
  976. from which the busy\(hyhour/day ratio may be calculated. 
  977. .PP
  978. Where measurement data is not available, a good starting point is
  979. Recommendation\ E.523. From the theoretical distributions found in
  980. Recommendation\ E.523, one finds variations in the busy\(hyhour/day ratio 
  981. from 10% for 0 to 2 hours time difference and up to 13.5% for 7 hours time 
  982. difference. 
  983. .PP
  984. As described above, the composite strategy is
  985. implemented as an accounting\(hybased procedure. However, it may be more 
  986. practical for some Administrations to measure \fId\fR and \fIh\fR based 
  987. on occupied time, derived from available call recording equipment. 
  988. .RT
  989. .LP
  990. .sp 1P
  991. .LP
  992. A.2.5
  993.     \fIEfficiency factor (e)\fR 
  994. .sp 9p
  995. .RT
  996. .PP
  997. The efficiency factor (ratio of busy\(hyhour paid time to busy\(hyhour
  998. occupied time, \fIe\fR ) converts the paid time into a measure of total circuit
  999. occupancy. It is therefore necessary to include all occupied circuit time in
  1000. the measurement of this ratio, and not merely circuit time taken up in
  1001. establishing paid calls. For example, the measurement of total circuit 
  1002. occupied time should include the occupied time for paid calls (time from 
  1003. circuit seizure to circuit clearance) and, in addition, the occupied time 
  1004. for directory 
  1005. inquiry calls, test calls, service calls, ineffective attempts and other
  1006. classes of unpaid traffic handled during the busy hour.
  1007. .PP
  1008. There is a tendency for the efficiency to change with time. In this
  1009. regard, efficiency is mainly a function of operating method (manual,
  1010. semi\(hyautomatic, international subscriber dialling), the B\(hysubscriber's
  1011. availability, and the quality of the distant network.
  1012. .PP
  1013. Forecasts of the efficiency can be made on the basis of extrapolation of 
  1014. past trends together with adjustments for planned improvements. 
  1015. .PP
  1016. The detailed consideration of efficiency is also an advantage from an operational 
  1017. viewpoint in that it may be possible to identify improvements that may 
  1018. be made, and quantify the benefits deriving from such improvements. 
  1019. .PP
  1020. It should be noted that the practical limit for \fIe\fR is generally about 
  1021. 0.8 to 0.9 for automatic working. 
  1022. .RT
  1023. .sp 1P
  1024. .LP
  1025. A.2.6
  1026.     \fIMean offered busy hour traffic (A)\fR 
  1027. .sp 9p
  1028. .RT
  1029. .PP
  1030. It should be noted that \fIA\fR  | s the mean offered busy\(hyhour traffic 
  1031. expressed in Erlangs. 
  1032. .RT
  1033. .sp 1P
  1034. .LP
  1035. A.2.7
  1036.     \fIUse of composite strategy\fR 
  1037. .sp 9p
  1038. .RT
  1039. .PP
  1040. In the case of countries with lower traffic volumes and manual
  1041. operation, the paid\(hytime factors (\fId\fR \ and\ \fIh\fR ) would be 
  1042. available from analysis of call vouchers (dockets). For derivation of the 
  1043. efficiency\ \fIe\fR , the manual 
  1044. operator would have to log the busy\(hyhour occupied time as well as the 
  1045. paid time during the sampling period. 
  1046. .PP
  1047. In countries using stored\(hyprogram controlled exchanges with
  1048. associated manual assistance positions, computer analysis may aid the composite 
  1049. forecasting procedure. 
  1050. .PP
  1051. One consequence of the procedure is that the factors \fId\fR  | nd \fIh\fR 
  1052.  | ive a picture of subscriber behaviour, in that unpaid time (inquiry calls,
  1053. test calls, service calls, etc.) are not included in the measurement of 
  1054. these factors. The importance of deriving the efficiency, \fIe\fR , during 
  1055. the busy hour, should also be emphasized. 
  1056. \v'1P'
  1057. .bp
  1058. .RT
  1059. .ce 1000
  1060. ANNEX\ B
  1061. .ce 0
  1062. .ce 1000
  1063. (to Recommendation E.506)
  1064. .sp 9p
  1065. .RT
  1066. .ce 0
  1067. .ce 1000
  1068. \fBExample using weighted least squares method\fR 
  1069. .sp 1P
  1070. .RT
  1071. .ce 0
  1072. .LP
  1073. B.1
  1074.     \fITelex data\fR 
  1075. .sp 1P
  1076. .RT
  1077. .PP
  1078. The telex traffic between the following countries has been
  1079. analyzed:
  1080. .RT
  1081. .LP
  1082.     \(em
  1083.     Germany (D)
  1084. .LP
  1085.     \(em
  1086.     Denmark (DNK)
  1087. .LP
  1088.     \(em
  1089.     USA (USA)
  1090. .LP
  1091.     \(em
  1092.     Finland (FIN)
  1093. .LP
  1094.     \(em
  1095.     Norway (NOR)
  1096. .LP
  1097.     \(em
  1098.     Sweden (S)
  1099. .PP
  1100. The data consists of yearly observations from 1973 to 1984\ [19].
  1101. .LP
  1102. .sp 1P
  1103. .LP
  1104. B.2
  1105.     \fIForecasting\fR 
  1106. .sp 9p
  1107. .RT
  1108. .PP
  1109. Before using the weighted least squares method, separate forecasts for 
  1110. the traffic matrix have to be made. In this example a simple ARIMA (0,2,1) 
  1111. model with logarithmic transformed observations without explanatory variables 
  1112. is used for forecasting. It may be possible to develop better forecasting 
  1113. models for the telex traffic between the various countries. However the main
  1114. point in this example only is to illustrate the use of the weighted least
  1115. squares technique.
  1116. .PP
  1117. Forecasts for 1984 based on observations from 1973 to 1983 are given in 
  1118. Table\ B\(hy1/E.506. 
  1119. .RT
  1120. .ce
  1121. \fBH.T. [T2.506]\fR 
  1122. .ce
  1123. TABLE\ B\(hy1/E.506
  1124. .ce
  1125. \fBForecasts for telex traffic between Germany\fR 
  1126. .ce
  1127. \fB(D),
  1128. .ce
  1129. Denmark\fR 
  1130. .ce
  1131. \fB(DNK),\fR 
  1132. .ce
  1133. \fBUSA\fR 
  1134. .ce
  1135. \fB(USA), Finland\fR 
  1136. .ce
  1137. \fB(FIN), Norway\fR 
  1138. .ce
  1139. \fB(NOR) and
  1140. .ce
  1141. Sweden\fR 
  1142. .ce
  1143. \fB(S) in 1984\fR 
  1144. .ps 9
  1145. .vs 11
  1146. .nr VS 11
  1147. .nr PS 9
  1148. .TS
  1149. center box;
  1150. lw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1151. From  To    D    DNK    USA    FIN    NOR    S    Sum    Forecasted sum
  1152. _
  1153. .T&
  1154. cw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1155. D    \(em    4869    12 | 30    2879    2397    \ 5230    28 | 05    27 | 88
  1156. .T&
  1157. cw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1158. DNK    \ 5196    \(em    \ 1655    \ 751    1270    \ 1959    10 | 31    10 | 05
  1159. .T&
  1160. cw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1161. USA    11 | 03    1313    \(em    \ 719    1657    \ 2401    17 | 93    17 | 09
  1162. .T&
  1163. cw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1164. FIN    \ 2655    \ 715    \ \ 741    \(em    \ 489    \ 1896    \ 6496    \ 6458
  1165. .T&
  1166. cw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1167. NOR    \ 2415    1255    \ 1821    \ 541    \(em    \ 1548    \ 7580    \ 7597
  1168. .T&
  1169. cw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1170. S    \ 4828    1821    \ 2283    1798    1333    \(em    12 | 63    12 | 53
  1171. _
  1172. .T&
  1173. cw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1174. Sum    26 | 97    9973    19 | 30    6688    7146    13 | 34        
  1175. _
  1176. .T&
  1177. cw(36p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(18p) | cw(30p) | cw(30p) .
  1178. Forecasted sum    26 | 97    9967    19 | 53    6659    7110    12 | 14        
  1179. _
  1180. .TE
  1181. .nr PS 9
  1182. .RT
  1183. .ad r
  1184. \fBTableau B\(hy1/E.506 [T2.506], p.\fR 
  1185. .sp 1P
  1186. .RT
  1187. .ad b
  1188. .RT
  1189. .PP
  1190. It should be noticed that there is no consistency between row and column 
  1191. sum forecasts and forecasts of the elements in the traffic matrix. For 
  1192. instance, the sum of forecasted outgoing telex traffic from Germany is 
  1193. 28 | 05, while the forecasted row sum is 27 | 88. 
  1194. .PP
  1195. To adjust the forecasts to get consistency and to utilize both
  1196. row/column forecasts and forecasts of the traffic elements the weighted 
  1197. least squares method is used. 
  1198. .bp
  1199. .RT
  1200. .sp 1P
  1201. .LP
  1202. B.3
  1203.     \fIAdjustment of the traffic matrix forecasts\fR 
  1204. .sp 9p
  1205. .RT
  1206. .PP
  1207. To be able to use the weighted least squares method, the weights
  1208. and the separate forecasts are needed as input. The separate forecasts are
  1209. found in Table\ B\(hy2/E.506, while the weights are based on the mean squared 
  1210. one step ahead forecasting errors. 
  1211. .PP
  1212. Let \fIy\fR\d\fIt\fR\u | be the traffic at time \fIt\fR . The ARIMA (0,2,1) 
  1213. model with logarithmic transformed data is given by: 
  1214. \v'6p'
  1215. .RT
  1216. .sp 1P
  1217. .ce 1000
  1218. \fIz\fR\d\fIt\fR\u= (1 \(em B)\u2\d | n \fIy\fR\d\fIt\fR\u= (1 \(em \(*hB) 
  1219. \fIa\fR\d\fIt\fR\u 
  1220. .ce 0
  1221. .sp 1P
  1222. .LP
  1223. .sp 1
  1224. or
  1225. \v'6p'
  1226. .sp 1P
  1227. .ce 1000
  1228. \fIz\fR\d\fIt\fR\u= \fIa\fR\d\fIt\fR\u\(em \(*h\fIa\fR\d\fIt\fR\\d\\u(em\d1\u
  1229. .ce 0
  1230. .sp 1P
  1231. .LP
  1232. .sp 1
  1233. .LP
  1234. where
  1235. .LP
  1236.      \fIz\fR\d\fIt\fR\u= ln \fIy\fR\d\fIt\fR\u\(em 2 ln \fIy\fR\d\fIt\fR\\d\\u(em\d1\u+ 
  1237. ln \fIy\fR\d\fIt\fR\\d\\u(em\d2\u 
  1238. .LP
  1239.     \fIa\fR\d\fIt\fR\u    is white noise,
  1240. .LP
  1241.     \(*h 
  1242.     is a parameter,
  1243. .LP
  1244.     \fIB\fR     is the backwards shift operator.
  1245. .PP
  1246. The mean squared one step ahead forecasting error of \fIz\fR\d\fIt\fR\u |
  1247. is:
  1248. \v'6p'
  1249. .sp 1P
  1250. .ce 1000
  1251. \fIMSQ\fR = 
  1252. [Formula Deleted]
  1253. .sp 1P
  1254. .LP
  1255. .sp 1
  1256. where
  1257. .LP
  1258.     \fI/*^z\fI\d\fIt\fR\\d\\u(em\d1\u(1) is the one step ahead forecast.
  1259. .PP
  1260. The results of using the weighted least squares method is found in Table 
  1261. B\(hy3/E.506 and show that the factors in Table\ B\(hy1/E.506 have been 
  1262. adjusted. In this example only minor changes have been performed because 
  1263. of the high conformity in the forecasts of row/column sums and traffic 
  1264. elements. 
  1265. .LP
  1266. .sp 1
  1267. .ce
  1268. \fBH.T. [T3.506]\fR 
  1269. .ce
  1270. TABLE\ B\(hy2/E.506
  1271. .ce
  1272. \fBInverse weights as mean as squared one step ahead forecasting\fR 
  1273. .ce
  1274.  
  1275. .ce
  1276. \fBerrors\fR 
  1277. .ce
  1278. \fBof telex traffic (100\fR\(ua\fB\(em\fB\(ua\fB4) between\fR 
  1279. .ce
  1280. \fBGermany\fR 
  1281. .ce
  1282. \fB(D), Denmark\fR 
  1283. .ce
  1284. \fB(DNK),\fR 
  1285. .ce
  1286. \fBUSA\fR 
  1287. .ce
  1288. \fB(USA), Finland\fR 
  1289. .ce
  1290. \fB(FIN),\fR 
  1291. .ce
  1292. \fBNorway\fR 
  1293. .ce
  1294. \fB(NOR) and Sweden\fR 
  1295. .ce
  1296. \fB(S) in 1984\fR 
  1297. .ps 9
  1298. .vs 11
  1299. .nr VS 11
  1300. .nr PS 9
  1301. .TS
  1302. center box;
  1303. lw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1304. From  To    D    DNK    USA    FIN    NOR    S    Sum
  1305. _
  1306. .T&
  1307. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1308. D    \(em    28.72    \ 13.18    11.40    \ 8.29    44.61    \ 7.77
  1309. .T&
  1310. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1311. DNK    \ 5.91    \(em    \ 43.14    18.28    39.99    18.40    10.61
  1312. .T&
  1313. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1314. USA    23.76    39.19    \(em    42.07    50.72    51.55    21.27
  1315. .T&
  1316. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1317. FIN    23.05    12.15    \ 99.08    \(em    34.41    19.96    17.46
  1318. .T&
  1319. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1320. NOR    21.47    40.16    132.57    24.64    \(em    17.15    20.56
  1321. .T&
  1322. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1323. S    \ 6.38    12.95    \ 28.60    28.08    \ 8.76    \(em    \ 6.48
  1324. _
  1325. .T&
  1326. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1327. Sum    \ 6.15    \ 3.85    \ 14.27    \ 9.55    12.94    \ 8.53    
  1328. _
  1329. .TE
  1330. .nr PS 9
  1331. .RT
  1332. .ad r
  1333. \fBTableau B\(hy2/E.506 [T3.506], p.4 
  1334. .sp 1P
  1335. .RT
  1336. .ad b
  1337. .RT
  1338. .LP
  1339. .bp
  1340. .ce
  1341. \fBH.T. [T4.506]\fR 
  1342. .ce
  1343. TABLE\ B\(hy3/E.506
  1344. .ce
  1345. \fBAdjusted telex forecasts using the weighted least
  1346. .ce
  1347. squares method\fR 
  1348. .ps 9
  1349. .vs 11
  1350. .nr VS 11
  1351. .nr PS 9
  1352. .TS
  1353. center box;
  1354. lw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1355. From  To    D    DNK    USA    FIN    NOR    S    Sum
  1356. _
  1357. .T&
  1358. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1359. D    \(em    4850    12 | 84    2858    2383    \ 5090    27 | 65
  1360. .T&
  1361. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1362. DNK    \ 5185    \(em    \ 1674    \ 750    1257    \ 1959    10 | 25
  1363. .T&
  1364. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1365. USA    11 | 01    1321    \(em    \ 717    1644    \ 2407    17 | 90
  1366. .T&
  1367. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1368. FIN    \ 2633    \ 715    \ \ 745    \(em    \ 487    \ 1891    \ 6471
  1369. .T&
  1370. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1371. NOR    \ 2402    1258    \ 1870    \ 540    \(em    \ 1547    \ 7617
  1372. .T&
  1373. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1374. S    \ 4823    1817    \ 2307    1788    1331    \(em    12 | 66
  1375. _
  1376. .T&
  1377. cw(30p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(24p) | cw(30p) .
  1378. Sum    26 | 44    9961    19 | 80    6653    7102    12 | 94    
  1379. _
  1380. .TE
  1381. .nr PS 9
  1382. .RT
  1383. .ad r
  1384. \fBTableau B\(hy3/E.506 [T4.506], p.5 
  1385. .sp 1P
  1386. .RT
  1387. .ad b
  1388. .RT
  1389. .ce 1000
  1390. ANNEX\ C
  1391. .ce 0
  1392. .ce 1000
  1393. (to Recommendation E.506)
  1394. .sp 9p
  1395. .RT
  1396. .ce 0
  1397. .ce 1000
  1398. \fBDescription of a \fR \fBtop down procedure\fR 
  1399. .sp 1P
  1400. .RT
  1401. .ce 0
  1402. .PP
  1403. Let
  1404. .sp 1P
  1405. .RT
  1406. .LP
  1407.     \fIX\fR\d\fIT\fR\u    be the traffic forecast on an aggregated level,
  1408. .LP
  1409.     \fIX\fR\d\fIi\fR\u    be the traffic forecast to country \fIi\fR ,
  1410. .LP
  1411.     \(*\*^s\fI\fI\d\fIT\fR\u    the estimated standard deviation of the aggregated
  1412. forecast,
  1413. .LP
  1414.     \(*\*^s\fI\fI\d\fIi\fR\u    the estimated standard deviation of the forecast
  1415. to country \fIi\fR .
  1416. .LP
  1417. Usually
  1418. \v'6p'
  1419. .ce 1000
  1420. \fIX
  1421. \dT\u\fR \(!= 
  1422. @ pile { sum above \fIi\fR } @ \fIX\fR\d\fIi\fR\u,
  1423. .ce 0
  1424. .ad r
  1425. (C\(hy1)
  1426. .ad b
  1427. .RT
  1428. .LP
  1429. .sp 1
  1430. so that it is necessary to find a correction
  1431. \v'6p'
  1432. .sp 1P
  1433. .ce 1000
  1434. [\fIX\fR `
  1435. \fI\fI\d\fIi\fR\u] of [\fIX\fR\d\fIi\fR\u]
  1436. and [\fIX\fR `
  1437. \fI\fI\d\fIT\fR\u] of [\fIX\fR\d\fIT\fR\u]
  1438. .ce 0
  1439. .sp 1P
  1440. .LP
  1441. .sp 1
  1442. by minimizing the expression
  1443. \v'6p'
  1444. .ad r
  1445. .ad b
  1446. .RT
  1447. .LP
  1448. subject to
  1449. \v'6p'
  1450. .ad r
  1451. .ad b
  1452. .RT
  1453. .LP
  1454. where \(*a and [\(*a\fI\fI\d\fIi\fR\u] are chosen to be
  1455. \v'6p'
  1456. .ad r
  1457. .ad b
  1458. .RT
  1459. .LP
  1460. .bp
  1461. .PP
  1462. The solution of the optimization problem gives the values
  1463. [\fIX\fR `
  1464. \fI\fI\d\fIi\fR\u]:
  1465. \v'6p'
  1466. .ad r
  1467. .ad b
  1468. .RT
  1469. .PP
  1470. A closer inspection of the data base may result in other
  1471. expressions for the coefficients [\(*a\fI\fI\d\fIi\fR\u], \fIi\fR \ =\ 
  1472. 0,\ 1,\ . |  |  On some 
  1473. occasions, it will also be reasonable to use other criteria for finding the
  1474. corrected forecasting values [\fIX\fR `
  1475. \fI\fI\d\fIi\fR\u]. This is shown in   the top down example in Annex\ D.
  1476. .PP
  1477. If, on the other hand, the variance of the top forecast \fIX\fR\d\fIT\fR\uis
  1478. fairly small, the following procedure may be chosen:
  1479. .PP
  1480. The corrections [\fIX\fR\d\fIi\fR\u] are found by minimizing the
  1481. expression
  1482. \v'6p'
  1483. .RT
  1484. .ad r
  1485. .ad b
  1486. .RT
  1487. .LP
  1488. subject to
  1489. \v'6p'
  1490. .ad r
  1491. .ad b
  1492. .RT
  1493. .PP
  1494. If \(*a\fI\fI\d\fIi\fR\u, \fIi\fR \ =\ 1,\ 2,\ . |  |  is chosen to be 
  1495. the inverse of the estimated variances, the solution of the optimization 
  1496. problem is given 
  1497. by
  1498. \v'6p'
  1499. .ad r
  1500. \v'6p'
  1501. .ad b
  1502. .RT
  1503. .ce 1000
  1504. ANNEX\ D
  1505. .ce 0
  1506. .ce 1000
  1507. (to Recommendation\ E.506)
  1508. .sp 9p
  1509. .RT
  1510. .ce 0
  1511. .ce 1000
  1512. \fBExample of a \fR \fBtop down modelling method\fR 
  1513. .sp 1P
  1514. .RT
  1515. .ce 0
  1516. .PP
  1517. The model for forecasting telephone traffic from Norway to the
  1518. European countries is divided into two separate parts. The first step is an
  1519. econometric model for the total traffic from Norway to Europe. Thereafter, 
  1520. we apply a model for the breakdown of the total traffic on each country. 
  1521. .sp 1P
  1522. .RT
  1523. .LP
  1524. .sp 1P
  1525. .LP
  1526. D.1
  1527.     \fIEconometric model\fR \fIof the total traffic from Norway to\fR 
  1528. \fIEurope\fR 
  1529. .sp 9p
  1530. .RT
  1531. .PP
  1532. With an econometric model we try to explain the development in
  1533. telephone traffic, measured in charged minutes, as a function of the main
  1534. explanatory variables. Because of the lack of data for some variables, 
  1535. such as tourism, these variables have had to be omitted in the model. 
  1536. .PP
  1537. The general model may be written:
  1538. \v'6p'
  1539. .RT
  1540. .ce 1000
  1541. \fIX
  1542. \dt\u\fR = e\fI
  1543. \uK\d\fR \(mu \fIGNP\fR $$Ei:\fIa\fR :\fIt\fR _ \(mu \fIP\fR $$Ei:\fIb\fR 
  1544. :\fIt\fR _ 
  1545. \(mu \fIA\fR $$Ei:\fIc\fR :\fIt\fR _ \(mu e\fI
  1546. \uu
  1547. t
  1548. \d\fR \ \ \ (\fIt\fR \ =\ 1,\ 2, . |  | ,
  1549. \fIN\fR )
  1550. .ce 0
  1551. .ad r
  1552. (D\(hy1)
  1553. .ad b
  1554. .RT
  1555. .LP
  1556. .sp 1
  1557. where:
  1558. .LP
  1559.      \fIX\fR\d\fIt\fR\u is the demand for telephone traffic from Norway to 
  1560. Europe at 
  1561. time \fIt\fR (charged minutes).
  1562. .LP
  1563.     \fIGNP\fI\d\fIt\fR\u    is the gross national product in Norway at
  1564. time \fIt\fR (real prices).
  1565. .LP
  1566.      \fIP\fR\d\fIt\fR\u is the index of charges for traffic from Norway to 
  1567. Europe at 
  1568. time \fIt\fR (real prices).
  1569. .bp
  1570. .LP
  1571.      \fIA\fR\d\fIt\fR\u is the percentage direct\(hydialled telephone traffic 
  1572. from Norway to Europe (to take account of the effect of automation). For 
  1573. statistical reasons (i.e.\ impossibility of taking logarithm of zero)
  1574. \fIA\fR\d\fIt\fR\ugoes from 1 to 2 instead of from 0 to 1.
  1575. .LP
  1576.     \fIK\fR     is the constant.
  1577. .LP
  1578.     \fIa\fR     is the elasticity with respect to \fIGNP\fR .
  1579. .LP
  1580.     \fIb\fR     is the price elasticity.
  1581. .LP
  1582.     \fIc\fR     is the elasticity with respect to automation.
  1583. .LP
  1584.     \fIu\fR\d\fIt\fR\u    is the stochastic variable, summarizing the impact of those
  1585. variables that are not explicitly introduced in the model and whose
  1586. effects tend to compensate each other (expectation of \fIu\fR\d\fIt\fR\u\ =\ 0
  1587. and var\ \fIu\fR\d\fIt\fR\u\ =\ \(*s\u2\d).
  1588. .PP
  1589. By applying regression analysis (OLSQ) we have arrived at the
  1590. coefficients (elasticities) in the forecasting model for telephone
  1591. traffic from Norway to Europe given in Table\ D\(hy1/E.506 (in our calculations 
  1592. we have used data for the period 1951\(hy1980). 
  1593. .PP
  1594. The \fIt\fR  | tatistics should be compared with the Student's
  1595. Distribution with \fIN\fR  | (em | fId\fR degrees of freedom, where \fIN\fR 
  1596. is the number of 
  1597. observations and \fId\fR is the number of estimated parameters. In this 
  1598. example, 
  1599. \fIN\fR \ =\ 30 and\ \fId\fR \ =\ 4.
  1600. .PP
  1601. The model \*Qexplains\*U 99.7% of the variation in the demand for
  1602. telephone traffic from Norway to Europe in the period 1951\(hy1980.
  1603. .PP
  1604. From this logarithmic model it can be seen that:
  1605. .RT
  1606. .LP
  1607.     \(em
  1608.     an increase in GNP of 1% causes an increase in the
  1609. telephone traffic of 2.80%,
  1610. .LP
  1611.     \(em
  1612.     an increase of 1% in the charges, measured in real
  1613. prices, causes a decrease in the telephone traffic of 0.26%,
  1614. and 
  1615. .LP
  1616.     \(em
  1617.     an increase of 1% in \fIA\fR\d\fIt\fR\ucauses an increase in
  1618. the traffic of 0.29%.
  1619. .PP
  1620. We now use the expected future development in charges to Europe, in GNP, 
  1621. and in the future automation of traffic to Europe to forecast the 
  1622. development in telephone traffic from Norway to Europe from the
  1623. equation:
  1624. \v'6p'
  1625. .ce 1000
  1626. \fIX
  1627. \dt\u\fR = e\fI
  1628. \dt\u\fR \u\(em16.095
  1629. \d \(mu \fIGNP
  1630. \dt\u\fR \u2.80
  1631. \d \(mu
  1632. \fIP
  1633. \dt\u\fR u
  1634. \u\(em0.26
  1635. \d \(mu \fIA
  1636. \dt\u\fR \u0.29
  1637. \d
  1638. .ce 0
  1639. .ad r
  1640. (D\(hy2)
  1641. .ad b
  1642. .RT
  1643. .LP
  1644. .sp 1
  1645. .ce
  1646. \fBH.T. [T5.506]\fR 
  1647. .ce
  1648. TABLE\ D\(hy1/E.506
  1649. .ps 9
  1650. .vs 11
  1651. .nr VS 11
  1652. .nr PS 9
  1653. .TS
  1654. center box;
  1655. cw(60p) | cw(60p) | cw(60p) .
  1656. Coefficients    Estimated  values    \fIt\fR  | statistics
  1657. _
  1658. .T&
  1659. cw(60p) | cw(60p) | cw(60p) .
  1660. K    \(em16.095    \(em4.2
  1661. .T&
  1662. cw(60p) | cw(60p) | cw(60p) .
  1663. a    \(em \ 2.799    \(em 8.2
  1664. .T&
  1665. cw(60p) | cw(60p) | cw(60p) .
  1666. b    \(em\ 0.264    \(em1.0
  1667. .T&
  1668. cw(60p) | cw(60p) | cw(60p) .
  1669. c    \(em \ 0.290    \(em 2.1
  1670. _
  1671. .TE
  1672. .nr PS 9
  1673. .RT
  1674. .ad r
  1675. \fBTable D\(hy1/E.506  [T5.506], p. 
  1676. .sp 1P
  1677. .RT
  1678. .ad b
  1679. .RT
  1680. .LP
  1681. .sp 1
  1682. .sp 1P
  1683. .LP
  1684. D.2
  1685.     \fIModel for breakdown of the total traffic from Norway to\fR 
  1686. \fIEurope\fR 
  1687. .sp 9p
  1688. .RT
  1689. .PP
  1690. The method of breakdown is first to apply the trend to forecast the traffic 
  1691. to each country. However, we let the trend become less important the 
  1692. further into the period of forecast we are, i.e. we let the trend for each
  1693. country converge to the increase in the total traffic to Europe. Secondly, 
  1694. the traffic to each country is adjusted up or down, by a percentage that 
  1695. is equal to all countries, so that the sum of the traffic to each country 
  1696. equals the 
  1697. forecasted total traffic to Europe from equation\ (D\(hy2).
  1698. .bp
  1699. .PP
  1700. Mathematically, the breakdown model can be expressed as follows:
  1701. .PP
  1702. \fICalculation of the trend for country i:\fR \v'6p'
  1703. .RT
  1704. .ce 1000
  1705. \fIR
  1706. \dit
  1707. \u\fR = \fIb
  1708. \di\u\fR + \fIa
  1709. \di\u\fR \(mu \fIt\fR ,\ \ \fIi\fR = 1, . |  | ,
  1710. 34\ \ \fIt\fR = 1, . |  | , \fIN\fR 
  1711. .ce 0
  1712. .ad r
  1713. (D\(hy3)
  1714. .ad b
  1715. .RT
  1716. .LP
  1717. .sp 1
  1718. where
  1719. .LP
  1720.     \fIR
  1721. \dit
  1722. \u\fR = 
  1723. @ { fIX~\dit~\u\fR } over { fIX~\dt\u\fR } @ ,
  1724. i.e country \fIi\fR 's share of the total traffic to Europe.
  1725. .LP
  1726.     \fIX
  1727. \dit
  1728. \u\fR     is the traffic to country \fIi\fR at time \fIt\fR 
  1729. .LP
  1730.     \fIX\fR\d\fIt\fR\u    is the traffic to Europe at time \fIt\fR 
  1731. .LP
  1732.     \fIt\fR     is the trend variable
  1733. .LP
  1734. \fIa\fR\d\fIi\fR\uand \fIb\fR\d\fIi\fR\uare two coefficients specific to 
  1735. country \fIi\fR ; i.e. \fIa\fR\d\fIi\fR\uis country \fIi\fR 's trend. The 
  1736. coefficients are estimated by using regression 
  1737. analysis, and we have based calculations on observed traffic for the period
  1738. 1966\(hy1980.
  1739. .PP
  1740. \fIThe forecasted shares\fR  | or country \fIi\fR  | s then calculated
  1741. by
  1742. \v'6p'
  1743. .ce 1000
  1744. \fIR\fR \d\fIit\fR \u = \fIR\fR \d\fIiN\fR \u + \fIa
  1745. \di
  1746. \u\fR \(mu (\fIt\fR \(em \fIN\fR ) \(mu
  1747. e
  1748. \s7\(em
  1749. @ { fIt\fR~\(em5 } over { 0 } @ 
  1750. \s9
  1751. .RT
  1752. .ce 0
  1753. .ad r
  1754. (D\(hy4)
  1755. \v'5p'
  1756. .ad b
  1757. .RT
  1758. .LP
  1759. .sp 1
  1760. where \fIN\fR  | s the last year of observation, and e is the exponential
  1761. function.
  1762. \v'4p'
  1763. .PP
  1764. The factor e
  1765. \s7\(em
  1766. @ { fIt\fR~\(em5 } over { 0 } @ 
  1767. \s9is
  1768. a correcting factor which ensures that the growth in the telephone
  1769. traffic
  1770. \-v'5p'
  1771. to each country will converge towards the
  1772. growth of total traffic to Europe after the adjustment made in Equation\ 
  1773. (D\(hy6). 
  1774. .RT
  1775. .PP
  1776. To have the sum of the countries' shares equal one, it is necessary
  1777. that
  1778. \v'6p'
  1779. .RT
  1780. .ce 1000
  1781. @ pile { sum above \fIi\fR } @ \fIR
  1782. \dit
  1783. \u\fR = 1
  1784. .ce 0
  1785. .ad r
  1786. (D\(hy5)
  1787. \v'8p'
  1788. .ad b
  1789. .RT
  1790. .LP
  1791. .sp 1
  1792. .PP
  1793. This we obtain by setting the adjusted share, \fI\*~R
  1794. \dit
  1795. \u\fR ,
  1796. equal to
  1797. \v'6p'
  1798. .ad r
  1799. .ad b
  1800. .RT
  1801. .PP
  1802. Each country's forecast traffic is then calculated by multiplying the total 
  1803. traffic to Europe, \fIX\fR\d\fIt\fR\u, by each country's share of the 
  1804. total traffic:
  1805. \v'6p'
  1806. .ce 1000
  1807. \fIX
  1808. \dit
  1809. \u\fR = \fI\*~R
  1810. \dit
  1811. \u\fR \(mu \fIX
  1812. \dt\u\fR 
  1813. .ce 0
  1814. .ad r
  1815. (D\(hy7)
  1816. .ad b
  1817. .RT
  1818. .LP
  1819. .sp 1
  1820. .sp 1P
  1821. .LP
  1822. D.3
  1823.     \fIEconometric model for telephone traffic from Norway to Central\fR 
  1824. \fIand South America, Africa, Asia, and Oceania\fR .
  1825. .sp 9p
  1826. .RT
  1827. .PP
  1828. For telephone traffic from Norway to these continents we have used the 
  1829. same explanatory variables and estimated coefficients. Instead of gross 
  1830. national product, our analysis has shown that for the traffic to these
  1831. continents the number of telephone stations within each continent are a 
  1832. better and more significant explanatory variable. 
  1833. .PP
  1834. After using cross\(hysection/time\(hyseries simultaneous estimation we 
  1835. have arrived at the coefficients in Table\ D\(hy2/E.506 for the forecasting 
  1836. model for 
  1837. telephone traffic from Norway to these continents (for each continent we 
  1838. have based our calculations on data for the period 1961\(hy1980): 
  1839. .bp
  1840. .RT
  1841. .LP
  1842. .ce
  1843. \fBH.T. [T6.506]\fR 
  1844. .ce
  1845. TABLE\ D\(hy2/E.506
  1846. .ps 9
  1847. .vs 11
  1848. .nr VS 11
  1849. .nr PS 9
  1850. .TS
  1851. center box;
  1852. cw(60p) | cw(60p) | cw(60p) .
  1853. Coefficients    Estimated  values    \fIt\fR  | statistics
  1854. _
  1855. .T&
  1856. lw(60p) | cw(60p) | cw(60p) .
  1857. Charges    \(em1.930    \(em5.5
  1858. .T&
  1859. lw(60p) | cw(60p) | cw(60p) .
  1860. Telephone stations    \(em 2.009    \(em 4.2
  1861. .T&
  1862. lw(60p) | cw(60p) | cw(60p) .
  1863. Automation    \(em 0.5\ \     \(em \ \(em\ 
  1864. _
  1865. .TE
  1866. .nr PS 9
  1867. .RT
  1868. .ad r
  1869. \fBTable D\(hy2/E.506 [T6.506], p. 
  1870. .sp 1P
  1871. .RT
  1872. .ad b
  1873. .RT
  1874. .LP
  1875. We then have \fIR\fR \u2\d = 0.96. The model may be written:
  1876. \v'6p'
  1877. .ce 1000
  1878. \fIX\fR \fI
  1879. \uk\d\fR \fI
  1880. \dt\u\fR = e\fI
  1881. \uK\d\fR \(mu
  1882. (\fITS\fR \fI
  1883. \uk\d\fR \fI
  1884. \dt\u\fR )
  1885. \u2.009
  1886. \d \(mu
  1887. (\fIP\fR \fI
  1888. \uk\d\fR \fI
  1889. \dt\u\fR )
  1890. \u1.930
  1891. \d \(mu
  1892. (\fIA
  1893. \uk\d\fR \fI
  1894. \dt\u\fR )
  1895. \u0.5
  1896. \d
  1897. .ce 0
  1898. .ad r
  1899. (D\(hy8)
  1900. .ad b
  1901. .RT
  1902. .LP
  1903. .sp 1
  1904. where
  1905. .LP
  1906.     \fIX\fR \fI
  1907. \uk\d\fR \fI
  1908. \dt\u\fR     is the telephone traffic to
  1909. continent \fIk\fR (\fIk\fR = Central America, . |  | , Oceania) at time 
  1910. \fIt\fR , 
  1911. .LP
  1912.     e\fI\fI
  1913. \u\fIK\fR\d    is the constant specific to each continent. For
  1914. telephone traffic from Norway to:
  1915. .LP
  1916.     Central\ America:
  1917.     \fIK\fR \u1\d\ =\ \(em11.025
  1918. .LP
  1919.     South\ America:
  1920.     \fIK\fR \u2\d\ =\ \(em12.62
  1921. .LP
  1922.     Africa:
  1923.     \fIK\fR \u3\d\ =\ \(em11.395
  1924. .LP
  1925.     Asia:
  1926.     \fIK\fR \u4\d\ =\ \(em15.02
  1927. .LP
  1928.     Oceania:
  1929.     \fIK\fR \u5\d\ =\ \(em13.194
  1930. .LP
  1931.     \fITS
  1932. \uk\d\fR \fI
  1933. \dt\u\fR     is the number of telephone stations
  1934. within continent\ \fIk\fR at time\ \fIt\fR ,
  1935. .LP
  1936.     \fIP\fR \fI
  1937. \uk\d\fR \fI
  1938. \dt\u\fR is the index of charges, measured in real prices, to continent\ 
  1939. \fIk\fR at time\ \fIt\fR , and 
  1940. .LP
  1941.     \fIA
  1942. \uk\d\fR \fI
  1943. \dt\u\fR     is the percentage direct\(hydialled telephone
  1944. traffic to continent\ \fIk\fR .
  1945. .PP
  1946. Equation (D\(hy8) is now used \(em together with the expected future
  1947. development in charges to each continent, future development in telephone
  1948. stations on each continent and future development in automation of telephone
  1949. traffic from Norway to the continent \(em to forecast the future development in
  1950. telephone traffic from Norway to the continent.
  1951. .LP
  1952. .sp 2P
  1953. .LP
  1954.     \fBReferences\fR 
  1955. .sp 1P
  1956. .RT
  1957. .LP
  1958. [1]
  1959.     ABRAHAM (A.) and LEDOLTER (J.): Statistical methods for forecasting.
  1960. \fIJ. Wiley\fR , New York, 1983.
  1961. .LP
  1962. [2]
  1963.     ALDRIN (M.): Forecasting time series with missing observations.
  1964. \fIStat 15/86 Norwegian Computing Center\fR , 1986.
  1965. .LP
  1966. [3]
  1967.     ANSLEY (C. | .) and KOHN (R.): Estimation, filtering and smoothing in
  1968. state space models with incomplete specified initial conditions.
  1969. \fIThe Annals of Statistics\fR , 13, pp.\ 1286\(hy1316, 1985.
  1970. .LP
  1971. [4]
  1972.     BARHAM (S. | .) and DUNSTAN (F. | . | .): Missing values in time series.
  1973. \fITime Series Analysis: Theory and Practice\ 2\fR : Anderson,\ O. | ., ed.,
  1974. pp.\ 25\(hy41, North Holland, Amsterdam, 1982.
  1975. .LP
  1976. [5]
  1977.     B\o"\(*s/"LVIKEN (E.): Forecasting telephone traffic using Kalman Filtering:
  1978. Theoretical considerations. \fIStat 5/86 Norwegian Computing Center\fR , 1986.
  1979. .LP
  1980. [6]
  1981.     CHEMOUIL (P.) and GARNIER (B.): An adaptive short\(hyterm traffic
  1982. forecasting procedure using Kalman Filtering.
  1983. \fIXI\ International Teletraffic Congress\fR , Kyoto, 1985.
  1984. .LP
  1985. [7]
  1986.     HARRISON (P. | .) and STEVENS (C. | .): Bayesian forecasting.
  1987. \fIJournal of Royal Statistical Society\fR . Ser\ B\ 37, pp.\ 205\(hy228, 1976.
  1988. .LP
  1989. [8]
  1990.     HARVEY (A. | .) and PIERSE (R. | .): Estimating missing observations in
  1991. econometric time series. \fIJournal of American Statistical As.\fR ,
  1992. 79, pp.\ 125\(hy131, 1984.
  1993. .LP
  1994. [9]
  1995.      JONES (R. | .): Maximum likelihood fitting of ARMA models to time series 
  1996. with missing observations. \fITechnometrics\fR , 22, No.\ 3, pp.\ 389\(hy396, 
  1997. 1980. 
  1998. .LP
  1999. [10]
  2000.     JONES (R. | .): Time series with unequally spaced data.
  2001. \fIHandbook of Statistics 5.\fR ed.\ Hannah,\ E. | ., et\ al., pp.\ 157\(hy177,
  2002. North Holland, Amsterdam, 1985.
  2003. .LP
  2004. [11]
  2005.     KRUITHOF (J.): Telefoonverkeersrekening. \fIDe Ingenieur\fR , 52, No.\ 8,
  2006. 1937.
  2007. .bp
  2008. .LP
  2009. [12]
  2010.      MORELAND (J. | .): A robust sequential projection algorithm for traffic 
  2011. load forecasting. \fIThe Bell Technical Journal\fR , 61, pp.\ 15\(hy38, 
  2012. 1982. 
  2013. .LP
  2014. [13]
  2015.     PACK (C. | .) and WHITAKER (B. | .): Kalman Filter models for network
  2016. forecasting. \fIThe Bell Technical Journal\fR , 61, pp.\ 1\(hy14, 1982.
  2017. .LP
  2018. [14]
  2019.     STORDAHL (K.) and HOLDEN (L.): Traffic forecasting models based on
  2020. top down and bottom up models. \fIITC\ 11\fR , Kyoto, 1985.
  2021. .LP
  2022. [15]
  2023.     SZELAG (C. | .): A short\(hyterm forecasting algorithm for trunk demand
  2024. servicing. \fIThe Bell Technical Journal\fR , 61, pp.\ 67\(hy96, 1982.
  2025. .LP
  2026. [16]
  2027.     TU (M.) and PACK (D.): Improved forecasts for local
  2028. telecommunications network. 6th\ International Forecasting Symposium,
  2029. Paris, 1986.
  2030. .LP
  2031. [17]
  2032.     WRIGHT (D. | .): Forecasting irregularly spaced data: An extension of
  2033. double exponential smoothing. \fIComputer and Engineering\fR ,
  2034. 10, pp.\ 135\(hy147, 1986.
  2035. .LP
  2036. [18]
  2037.      WRIGHT (D. | .): Forecasting data published at irregular time intervals 
  2038. using an extension of Holt's method. \fIManagement science\fR , 32, 
  2039. pp.\ 499\(hy510, 1986.
  2040. .LP
  2041. [19]
  2042.     \fITable of international telex relations and traffic\fR , ITU,
  2043. Geneva, 1973\(hy1984.
  2044. .sp 2P
  2045. .LP
  2046. \fBRecommendation E.507\fR 
  2047. .FS
  2048. The old Recommendation E.506 which appeared  in the \fIRed Book \fR was
  2049. split into two Recommendations, revised E.506 and new E.507,
  2050. and considerable new material was added to both.
  2051. .FE
  2052. .RT
  2053. .sp 2P
  2054. .sp 1P
  2055. .ce 1000
  2056. \fBMODELS\ FOR\ \fR \fBFORECASTING\ INTERNATIONAL\ TRAFFIC\fR 
  2057. .EF '%    Fascicle\ II.3\ \(em\ Rec.\ E.507''
  2058. .OF '''Fascicle\ II.3\ \(em\ Rec.\ E.507    %'
  2059. .ce 0
  2060. .sp 1P
  2061. .LP
  2062. \fB1\fR     \fBIntroduction\fR 
  2063. .sp 1P
  2064. .RT
  2065. .PP
  2066. Econometric and time series model development and forecasting
  2067. requires familiarity with methods and techniques to deal with a range of
  2068. different situations. Thus, the purpose of this Recommendation is to present
  2069. some of the basic ideas and leave the explanation of the details to the
  2070. publications cited in the reference list. As such, this Recommendation 
  2071. is not intended to be a complete guide to econometric and time series modelling 
  2072. and 
  2073. forecasting.
  2074. .PP
  2075. The Recommendation also gives guidelines for building various
  2076. forecasting models: identification of the model, inclusion of explanatory
  2077. variables, adjustment for irregularities, estimation of parameters, diagnostic 
  2078. checks,\ etc. 
  2079. .PP
  2080. In addition the Recommendation describes various methods for
  2081. evaluation of forecasting models and choice of model.
  2082. .RT
  2083. .sp 2P
  2084. .LP
  2085. \fB2\fR     \fBBuilding the forecasting model\fR 
  2086. .sp 1P
  2087. .RT
  2088. .PP
  2089. This procedure can conveniently be described as four consecutive
  2090. steps. The first step consists in finding a useful class of models to describe 
  2091. the actual situation. Examples of such classes are simple models, smoothing 
  2092. models, autoregressive models, autoregressive integrated moving average
  2093. (ARIMA) models or econometric models. Before
  2094. choosing the class of models, the influence of external variables should be
  2095. analyzed. If special external variables have significant impact on the 
  2096. traffic demand, one ought to include them in the forecasting models, provided 
  2097. enough 
  2098. historical data are available.
  2099. .PP
  2100. The next step is to identify one tentative model in the class of
  2101. models which have been chosen. If the class is too extensive to be conveniently 
  2102. fitted directly to data, rough methods for identifying subclasses can be 
  2103. used. Such methods of model identification employ data and knowledge of 
  2104. the system to suggest an appropriate parsimonious subclass of models. The 
  2105. identification 
  2106. procedure may also, in some occasions, be used to yield rough preliminary
  2107. estimates of the parameters in the model. Then the tentative model is fitted
  2108. to data by estimating the parameters. Usually, maximum likelihood estimators 
  2109. or least square estimators are used. 
  2110. .PP
  2111. The next step is to check the model. This procedure is often called
  2112. diagnostic checking. The object is to find out how well the model fits 
  2113. the data and, in case the discrepancy is judged to be too severe, to indicate 
  2114. possible remedies. The outcome of this step may thus be acceptance of the 
  2115. model if the fit is acceptable. If on the other hand it is inadequate, 
  2116. it is an indication that new tentative models may in turn be estimated 
  2117. and subjected to diagnostic checking. 
  2118. .bp
  2119. .PP
  2120. In Figure\ 1/E.507 the steps in the model building procedure are
  2121. illustrated.
  2122. .RT
  2123. .LP
  2124. .rs
  2125. .sp 18P
  2126. .ad r
  2127. \fBFigure 1/E.507, p.\fR 
  2128. .sp 1P
  2129. .RT
  2130. .ad b
  2131. .RT
  2132. .sp 2P
  2133. .LP
  2134. \fB3\fR     \fBVarious forecasting models\fR 
  2135. .sp 1P
  2136. .RT
  2137. .PP
  2138. The objective of \(sc\ 3 is to give a brief overview of the
  2139. most important forecasting models. In the GAS\ 10 Manual on planning data and
  2140. forecasting methods\ [5], a more detailed description of the models is
  2141. given.
  2142. .RT
  2143. .sp 1P
  2144. .LP
  2145. 3.1
  2146.     \fICurve fitting models\fR 
  2147. .sp 9p
  2148. .RT
  2149. .PP
  2150. In curve fitting models the traffic trend is extrapolated by
  2151. calculating the values of the parameters of some function that is expected 
  2152. to characterize the growth of international traffic over time. The numerical 
  2153. calculations of some curve fitting models can be performed by using the 
  2154. least squares method. 
  2155. .PP
  2156. The following are examples of common curve fitting models used for
  2157. forecasting international traffic:
  2158. \v'6p'
  2159. .RT
  2160. .ad r
  2161.     Linear:
  2162.     \fIY\fR\d\fIt\fR\u\ =\ \fIa\fR + \fIbt\fR     (3\(hy1)
  2163. .ad b
  2164. .RT
  2165. .ad r
  2166.     Parabolic:
  2167.     \fIY\fR\d\fIt\fR\u\ =\ \fIa\fR + \fIbt\fR +
  2168. \fIct\fR \u2\d
  2169.     (3\(hy2)
  2170. .ad b
  2171. .RT
  2172. .ad r
  2173.     Exponential:
  2174.     \fIY\fR\d\fIt\fR\u\ =\ \fIae\fR \fI\fI
  2175. \u\fIt\fR\d    (3\(hy3)
  2176. .ad b
  2177. .RT
  2178. .ad r
  2179.     Logistic:
  2180.     \fIY\fR\d\fIt\fR\u\ =\ \fI
  2181. [Formula Deleted]
  2182. \v'7p'
  2183. .ad b
  2184. .RT
  2185. .ad r
  2186.     Gompertz:
  2187.     \fIY\fR\d\fIt\fR\u\ =\ \fIM\fR (\fIa\fR )\fI\fI
  2188. \u\fIt\fR\d    (3\(hy5)
  2189. .ad b
  2190. .RT
  2191. .LP
  2192. .sp 1
  2193. .LP
  2194. where
  2195. .LP
  2196.     \fIY\fR\d\fIt\fR\uis the traffic at time \fIt\fR ,
  2197. .LP
  2198.     \fIa, b, c\fR  | are parameters,
  2199. .LP
  2200.     \fIM\fR  | is a parameter describing the saturation level.
  2201. .PP
  2202. The various trend curves are shown in Figures 2/E.507 and
  2203. 3/E.507.
  2204. .PP
  2205. The logistic and Gompertz curves differ from the linear, parabolic
  2206. and exponential curves by having saturation or ceiling level. For further 
  2207. study see\ [10]. 
  2208. .bp
  2209. .RT
  2210. .LP
  2211. .rs
  2212. .sp 18P
  2213. .ad r
  2214. \fBFIGURE 2/E.507, p.9\fR 
  2215. .sp 1P
  2216. .RT
  2217. .ad b
  2218. .RT
  2219. .LP
  2220. .rs
  2221. .sp 30P
  2222. .ad r
  2223. \fBFIGURE 3/E.507\ \ \ \ DIMINUER LA FIGURE, p.10\fR 
  2224. .sp 1P
  2225. .RT
  2226. .ad b
  2227. .RT
  2228. .LP
  2229. .bp
  2230. .sp 1P
  2231. .LP
  2232. 3.2
  2233.     \fISmoothing models\fR 
  2234. .sp 9p
  2235. .RT
  2236. .PP
  2237. By using a smooth process in curve fitting, it is possible to
  2238. calculate the parameters of the models to fit current data very well but not
  2239. necessarily the data obtained from the distant past.
  2240. .PP
  2241. The best known smoothing process is that of the moving average. The
  2242. degree of
  2243. smoothing is controlled by the number of most recent observations included 
  2244. in the average. All observations included in the average have the same 
  2245. weight. 
  2246. .PP
  2247. In addition to moving average models, there exists another group of
  2248. smoothing models based on weighting the observations. The most common models
  2249. are:
  2250. .RT
  2251. .LP
  2252.     \(em
  2253.     simple exponential smoothing,
  2254. .LP
  2255.     \(em
  2256.     double exponential smoothing,
  2257. .LP
  2258.     \(em
  2259.     discounted regression,
  2260. .LP
  2261.     \(em
  2262.     Holt's method, and
  2263. .LP
  2264.     \(em
  2265.     Holt\(hyWinters' seasonal models.
  2266. .PP
  2267. For example, in the method of exponential smoothing the weight
  2268. given to previous observations decreases geometrically with age according to
  2269. the following equation:
  2270. \v'6p'
  2271. .ce 1000
  2272. \(*m\fI\fI\d\fIt\fR\u\ =\ (1 \(em \fIa\fR )\fIY\fR\d\fIt\fR\u+ \fIa\fR 
  2273. \(*/*^m\fI 
  2274. \dt\fR \(em1\fI
  2275. \u\fR 
  2276. .ce 0
  2277. .ad r
  2278. (3\(hy6)
  2279. .ad b
  2280. .RT
  2281. .LP
  2282. .sp 1
  2283. where:
  2284. .LP
  2285.     \fIY\fR\d\fIt\fR\uis the measured traffic at time \fIt\fR ,
  2286. .LP
  2287.     \(*m\fI\fI\d\fIt\fR\uis the estimated level at time \fIt\fR , and
  2288. .LP
  2289.      \fIa\fR  | is the discount factor [and (1 \(em \fIa\fR ) is the smoothing 
  2290. parameter]. 
  2291. .PP
  2292. The impact of past observations on the forecasts is controlled by the magnitude 
  2293. of the discount factor. 
  2294. .PP
  2295. Use of smoothing models is especially appropriate for short\(hyterm
  2296. forecasts. For further studies see [1], [5] and\ [9].
  2297. .RT
  2298. .sp 1P
  2299. .LP
  2300. 3.3
  2301.     \fIAutoregressive models\fR 
  2302. .sp 9p
  2303. .RT
  2304. .PP
  2305. If the traffic demand, \fIX\fR\d\fIt\fR\u, at time \fIt\fR can be expressed 
  2306. as a linear combination of earlier equidistant observations of the past 
  2307. traffic demand, the process is an autoregressive process. Then the model 
  2308. is defined by the expression: 
  2309. \v'6p'
  2310. .RT
  2311. .ce 1000
  2312. \fIX
  2313. \dt\u\fR = ?71
  2314. \d1\u\fIX
  2315. \dt\fR \(em1\fI
  2316. \u\fR + ?71
  2317. \d2\u\fIX
  2318. \dt\fR \(em2\fI
  2319. \u\fR +
  2320. . |  |  + ?71\fI
  2321. \dp\uX
  2322. \dt\fR \(em\fIp
  2323. \u\fR + \fIa
  2324. \dt\u\fR 
  2325. .ce 0
  2326. .ad r
  2327. (3\(hy7)
  2328. .ad b
  2329. .RT
  2330. .LP
  2331. .sp 1
  2332. where
  2333. .LP
  2334.     \fIa\fR\d\fIt\fR\u\ is white noise at time \fIt\fR ;
  2335. .LP
  2336.      ?71\fI\fI\d\fIk\fR\u,\ \fIk\fR \ =\ 1, . |  |  \fIp\fR are the autoregressive 
  2337. parameters. 
  2338. .LP
  2339. The model is denoted by \fIAR\fR (\fIp\fR ) since the order of the model 
  2340. is \fIp\fR . 
  2341. .PP
  2342. By use of regression analysis the estimates of the parameters
  2343. can be found. Because of common trends the exogenous variables
  2344. (\fIX
  2345. \dt\fR \(em1\fI
  2346. \u\fR , \fIX
  2347. \dt\fR \(em2\fI
  2348. \u\fR , . |  |  \fIX
  2349. \dt\fR \(em\fIp
  2350. \u\fR )
  2351. are usually strongly
  2352. correlated. Hence the parameter estimates will be correlated. Furthermore,
  2353. significance tests of the estimates are somewhat difficult to perform.
  2354. .PP
  2355. Another possibility is to compute the empirical autocorrelation
  2356. coefficients and then use the Yule\(hyWalker equations to estimate the 
  2357. parameters [?71\fI\fI\d\fIk\fR\u]. This procedure can be performed when 
  2358. the time 
  2359. series [\fIX\fR\d\fIt\fR\u]
  2360. are stationary. If, on the other hand, the time series are non stationary, 
  2361. the series can often be transformed to stationarity e.g.,\ by differencing 
  2362. the 
  2363. series. The estimation procedure is given in Annex\ A, \(sc\ A.1.
  2364. .bp
  2365. .RT
  2366. .sp 1P
  2367. .LP
  2368. 3.4
  2369.     \fIAutoregressive integrated moving average (ARIMA) models\fR 
  2370. .sp 9p
  2371. .RT
  2372. .PP
  2373. An extention of the class of autoregressive models which include
  2374. the moving average models is called autoregressive moving average models
  2375. (ARMA models). A moving average model of order \fIq\fR is given by:
  2376. \v'6p'
  2377. .RT
  2378. .ce 1000
  2379. \fIX
  2380. \dt\u\fR = \fIa
  2381. \dt\u\fR \(em \(*h
  2382. \d1\u\fIa
  2383. \dt\fR \(em1\fI
  2384. \u\fR \(em \(*h
  2385. \d2\u\fIa
  2386. \dt\fR \(em2\fI
  2387. \u\fR 
  2388. . |  |  \(em \(*h\fI
  2389. \dq\ua
  2390. \dt\fR \(em\fIq
  2391. \u\fR 
  2392. .ce 0
  2393. .ad r
  2394. (3\(hy8)
  2395. .ad b
  2396. .RT
  2397. .LP
  2398. .sp 1
  2399. where
  2400. .LP
  2401.     \fIa\fR\d\fIt\fR\u\ is white noise at time \fIt\fR ;
  2402. .LP
  2403.     [\(*h\fI\fI\d\fIk\fR\u]\ are the 
  2404. moving average parameters
  2405. .
  2406. .PP
  2407. Assuming that the white noise term in the autoregressive models in \(sc\ 
  2408. 3.3 is described by a moving average model, one obtains the so\(hycalled 
  2409. ARMA (\fIp\fR , \fIq\fR ) model:
  2410. \v'6p'
  2411. .ce 1000
  2412. \fIX
  2413. \dt\u\fR = ?71
  2414. \d1\u\fIX
  2415. \dt\fR \(em1\fI
  2416. \u\fR + ?71
  2417. \d2\u\fIX
  2418. \dt\fR \(em2\fI
  2419. \u\fR +
  2420. . |  |  + ?71\fI
  2421. \dp\uX
  2422. \dt\fR \(em\fIp
  2423. \u\fR +
  2424. \fIa
  2425. \dt\u\fR \(em \(*h
  2426. \d1\u\fIa
  2427. \dt\fR \(em1\fI
  2428. \u\fR \(em \(*h
  2429. \d2\u\fIa
  2430. \dt\fR \(em2\fI
  2431. \u\fR . |  |  \(em \(*h\fI
  2432. \dq\ua
  2433. \dt\fR \(em\fIq
  2434. \u\fR 
  2435. .ce 0
  2436. .ad r
  2437. (3\(hy9)
  2438. .ad b
  2439. .RT
  2440. .PP
  2441. .sp 1
  2442. The ARMA model describes a stationary time series. If the time
  2443. series is non\(hystationary, it is necessary to difference the series. This is
  2444. done as follow:
  2445. .PP
  2446. Let \fIY\fR\d\fIt\fR\ube the time series and \fIB\fR the backwards shift 
  2447. operator, then 
  2448. \v'6p'
  2449. .RT
  2450. .ce 1000
  2451. \fIX\fR\d\fIt\fR\u= (1 \(em \fIB\fR )\fI\fI\d\fIt\fR\u
  2452. .ce 0
  2453. .ad r
  2454. (3\(hy10)
  2455. .ad b
  2456. .RT
  2457. .LP
  2458. .sp 1
  2459. where
  2460. .LP
  2461.     \fId\fR is the number of differences to have stationarity.
  2462. .PP
  2463. The new model ARIMA (
  2464. \fIp, d, q\fR ) is found by inserting
  2465. equation\ (3\(hy10) into equation\ (3\(hy9).
  2466. .PP
  2467. The method for analyzing such time series was developed by
  2468. G. | . | . Box and G. | . Jenkins\ [3]. To analyze and forecast such time
  2469. series it is usually necessary to use a time series program package.
  2470. .PP
  2471. As indicated in Figure\ 1/E.507 a tentative model is identified. This is 
  2472. carried out by determination of necessary transformations and number of 
  2473. autoregressive and moving average parameters. The identification is based on
  2474. the structure of the autocorrelations and partial autocorrelations.
  2475. .PP
  2476. The next step as indicated in Figure\ 1/E.507 is the estimation
  2477. procedure. The maximum likelihood estimates are used. Unfortunately, it is
  2478. difficult to find these estimates because of the necessity to solve a
  2479. nonlinear system of
  2480. equations. For practical purposes, a computer program is necessary for these
  2481. calculations. The forecasting model is based on equation\ (3\(hy9) and the
  2482. process of making forecasts \fIl\fR time units ahead is shown in \(sc\ A.2.
  2483. .PP
  2484. The forecasting models described so far are univariate forecasting
  2485. models. It is also possible to introduce explanatory variables. In this case
  2486. the system will be described by a transfer function model. The methods for
  2487. analyzing the time series in a transfer function model are rather similar to
  2488. the methods described above.
  2489. .PP
  2490. Detailed descriptions of ARIMA models are given in [1], [2], [3], [5], 
  2491. [11], [15] and\ [17]. 
  2492. .RT
  2493. .sp 1P
  2494. .LP
  2495. 3.5
  2496.     \fIState space models with Kalman Filtering\fR 
  2497. .sp 9p
  2498. .RT
  2499. .PP
  2500. State space models are a way to represent discrete\(hytime process by means 
  2501. of difference equations. The state space modelling approach allows the 
  2502. conversion of any general linear model into a form suitable for recursive
  2503. estimation and forecasting. A more detailed description of ARIMA state space
  2504. models can be found in\ [1].
  2505. .bp
  2506. .PP
  2507. For a stochastic process such a representation may be of the following form:
  2508. \v'6p'
  2509. .RT
  2510. .ce 1000
  2511. \fIX\fR\d\fIt\fR\\d+\\d1\u= ?71\fIX\fR\d\fIt\fR\u+ \fIZ\fR\d\fIt\fR\u+ 
  2512. \(*w\fI\fI\d\fIt\fR\u 
  2513. .ce 0
  2514. .ad r
  2515. (3\(hy11)
  2516. .ad b
  2517. .RT
  2518. .LP
  2519. .sp 1
  2520. and
  2521. \v'6p'
  2522. .ce 1000
  2523. \fIY\fR\d\fIt\fR\u= \fIHX\fI\d\fIt\fR\u+ \(*n\fI\fI\d\fIt\fR\u
  2524. .ce 0
  2525. .ad r
  2526. (3\(hy12)
  2527. .ad b
  2528. .RT
  2529. .LP
  2530. .sp 1
  2531. where
  2532. .LP
  2533.     \fIX\fR\d\fIt\fR\uis an s\(hyvector of state variables in period \fIt\fR ,
  2534. .LP
  2535.     \fIZ\fR\d\fIt\fR\uis an s\(hyvector of deterministic events,
  2536. .LP
  2537.     ?71 is an \fIs\fR \(mu\fIs\fR  | ransition matrix that may, in general,
  2538. depend on \fIt\fR ,
  2539. .LP
  2540.     \(*w\fI\fI\d\fIt\fR\uis an s\(hyvector of random modelling errors,
  2541. .LP
  2542.     \fIY\fR\d\fIt\fR\uis a d\(hyvector of measurements in period \fIt\fR ,
  2543. .LP
  2544.     \fIH\fR  | s a \fId\fR \(mu\fIs\fR  | atrix called the observation matrix, and
  2545. .LP
  2546.     \(*n\fI\fI\d\fIt\fR\uis a d\(hyvector of measurement errors.
  2547. .PP
  2548. Both \(*w\fI\fI\d\fIt\fR\uin equation (3\(hy11) and \(*n\fI\fI\d\fIt\fR\uin 
  2549. equation (3\(hy12) are additive 
  2550. random sequences with known statistics. The expected value of each sequence 
  2551. is the zero vector and \(*w\fI\fI\d\fIt\fR\uand \(*n\fI\fI\d\fIt\fR\usatisfy 
  2552. the conditions: 
  2553. \v'6p'
  2554. .ce 1000
  2555. \fIE\fR @ left [ \(*w\fI\fI\d\fIt\fR\u\(*w\fI~$$Ei:T:j_\fR right ] @  = \fIQ\fR\d\fIt\fR\u\(*d\fI\fI\d\fIt\fR\\d\fIj\fR\u
  2556. for all \fIt\fR , \fIj\fR ,
  2557. .ce 0
  2558. .ce 1000
  2559. (3\(hy13)
  2560. \fIE\fR @ left [ \(*n\fI\fI\d\fIt\fR\u\(*n\fI~$$Ei:T:j_\fR right ] @  = \fIR\fR\d\fIt\fR\u\(*d\fI\fI\d\fIt\fR\\d\fIj\fR\ufor all \fIt\fR , \fIj\fR ,
  2561. .ce 0
  2562. .LP
  2563. .sp 1
  2564. where
  2565. .LP
  2566.     \fIQ\fR\d\fIt\fR\uand \fIR\fR\d\fIt\fR\uare nonnegative definite matrices,
  2567. .FS
  2568. A matrix A is
  2569. nonnegative definite, if and only if, for all vectors\ \fIz, z\fI
  2570.  | (>=" | .
  2571. .FE
  2572. .LP
  2573. and
  2574. .LP
  2575.     \(*d\fI\fI\d\fIt\fR\\d\fIj\fR\uis the Kronecker delta.
  2576. .LP
  2577. \fIQ\fR\d\fIt\fR\uis the covariance matrix of the modelling errors and 
  2578. \fIR\fR\d\fIt\fR\uis the 
  2579. covariance matrix of the measurement errors; the \(*w\fI\fI\d\fIt\fR\uand 
  2580. the \(*n\fI\fI\d\fIt\fR\uare 
  2581. assumed to be uncorrelated and are referred to as white noise. In other
  2582. words:
  2583. \v'6p'
  2584. .ce 1000
  2585. \fIE\fR @ left [ \(*n\fI\fI\d\fIt\fR\u\(*w\fI~$$Ei:T:j_\fR right ] @  = 0 for all \fIt\fR ,
  2586. \fIj\fR ,
  2587. .ce 0
  2588. .ad r
  2589. (3\(hy14)
  2590. .ad b
  2591. .RT
  2592. .LP
  2593. .sp 1
  2594. and
  2595. \v'6p'
  2596. .ce 1000
  2597. \fIE\fR @ left [ \(*n\fI\fI\d\fIt\fR\u\fIX\fR~$$Ei:\fIT:\fR~0_ right ] @  = 0 for all
  2598. \fIt\fR .
  2599. .ce 0
  2600. .ad r
  2601. (3\(hy15)
  2602. .ad b
  2603. .RT
  2604. .LP
  2605. .sp 1
  2606. Under the assumptions formulated above, determine \fIX\fR\d\fIt\fR\\d\fI,\fR\\d\fIt\fR\usuch 
  2607. that:
  2608. \v'6p'
  2609. .ce 1000
  2610. \fIE\fR @ left [ (\fIX\fR\d\fIt\fR\\d\fI,\fR\\d\fIt\fR\u\(em~\fIX\fR\d\fIt\fR\u)\fI\fI~\u\fIT\fR\d(\fIX\fR\d\fIt\fR\\d\fI,\fR\\d\fIt\fR\u\(em~\fIX\fR\d\fIt\fR\u) right ] @ 
  2611. = minimum,
  2612. .ce 0
  2613. .ad r
  2614. (3\(hy16)
  2615. .ad b
  2616. .RT
  2617. .LP
  2618. where
  2619. .LP
  2620.      \fIX\fR\d\fIt\fR\\d\fI,\fR\\d\fIt\fR\uis an estimate of the state vector 
  2621. at time \fIt\fR , 
  2622. and
  2623. .LP
  2624.     \fIX\fR\d\fIt\fR\uis the vector of true state variables.
  2625. .LP
  2626. .sp 1
  2627. .bp
  2628. .PP
  2629. The Kalman Filtering technique allows the estimation of state
  2630. variables recursively for on\(hyline applications. This is done in the 
  2631. following manner. Assuming that there is no explanatory variable\ \fIZ\fR 
  2632. \fI\fI\d\fIt\fR\u, once a new data point becomes available it is used to 
  2633. update the model: 
  2634. \v'6p'
  2635. .ce 1000
  2636. \fIX\fR\d\fIt\fR\\d\fI,\fR\\d\fIt\fR\u= \fIX
  2637. \dt,t\fR \(em1
  2638. \u
  2639. + \fIK\fR\d\fIt\fR\u(\fIY\fR\d\fIt\fR\u\(em \fIHX\fR \d\fIt,t\fR \(em1
  2640. \u)
  2641. .ce 0
  2642. .ad r
  2643. (3\(hy17)
  2644. .ad b
  2645. .RT
  2646. .LP
  2647. .sp 1
  2648. where
  2649. .PP
  2650. \fIK\fR\d\fIt\fR\uis the Kalman Gain matrix that can be computed
  2651. recursively\ [18].
  2652. .PP
  2653. Intuitively, the gain matrix determines how much relative
  2654. weight will be given to the last observed forecast error to correct it. To
  2655. create a k\(hystep ahead projection the following formula is used:
  2656. \v'6p'
  2657. .RT
  2658. .ce 1000
  2659. \fIX
  2660. \dt\fR +\fIk,t
  2661. \u\fR = ?71\fI\fI
  2662. \u\fIk\fR\d\fIX\fR\d\fIt\fR\\d\fI,\fR\\d\fIt\fR\u
  2663. .ce 0
  2664. .ad r
  2665. (3\(hy18)
  2666. .ad b
  2667. .RT
  2668. .LP
  2669. .sp 1
  2670. where
  2671. .LP
  2672.     \fIX
  2673. \dt\fR +\fIk,t
  2674. \u\fR is an estimate of \fIX
  2675. \dt\fR +\fIk
  2676. \u\fR given
  2677. observations \fIY\fR\d1\u, \fIY\fR\d2\u,  |  |  | , \fIY\fR\d\fIt\fR\u.
  2678. .PP
  2679. Equations (3\(hy17) and (3\(hy18) show that the Kalman Filtering
  2680. technique leads to a convenient forecasting procedure that is recursive in
  2681. nature and provides an unbiased, minimum variance estimate of the discrete 
  2682. time process of interest. 
  2683. .PP
  2684. For further studies see [4], [5], [16], [18], [19] and [22].
  2685. .PP
  2686. The Kalman Filtering works well when the data under examination are
  2687. seasonal. The seasonal traffic load data can be represented by a periodic 
  2688. time series. In this way, a seasonal Kalman Filter can be obtained by superimposing 
  2689. a linear growth model with a seasonal model. For further discussion of 
  2690. seasonal Kalman Filter techniques see\ [6] and\ [20]. 
  2691. .RT
  2692. .sp 1P
  2693. .LP
  2694. 3.6
  2695.     \fIRegression models\fR 
  2696. .sp 9p
  2697. .RT
  2698. .PP
  2699. The equations (3\(hy1) and (3\(hy2) are typical regression models. In the 
  2700. equations the traffic, \fIY\fR\d\fIt\fR\u, is the dependent (or explanatory) 
  2701. variable, while time\ \fIt\fR is the independent variable.
  2702. .PP
  2703. A regression model describes a linear relation between the dependent and 
  2704. the independent variables. Given certain assumptions ordinary least 
  2705. squares (OLS) can be used to estimate the parameters.
  2706. .PP
  2707. A model with several independent variables is called a multiple
  2708. regression model. The model is given by:
  2709. \v'6p'
  2710. .RT
  2711. .ce 1000
  2712. \fIY\fR\d\fIt\fR\u= \(*b\d0\u+ \(*b\d1\u\fIX\fR\d1\u\fI\fI\d\fIt\fR\u+ 
  2713. \(*b\d2\u\fIX\fR\d2\u\fI\fI\d\fIt\fR\u+ |  |  |  +\fR 
  2714. \(*b\fI\fI\d\fIk\fR\\d\fIt\fR\u+ \fIu\fR\d\fIt\fR\u
  2715. .EF '%    \fI''
  2716. .OF '''\fI    %'
  2717. .ce 0
  2718. .ad r
  2719. (3\(hy19)
  2720. .ad b
  2721. .RT
  2722. .LP
  2723. .sp 1
  2724. where
  2725. .LP
  2726.     \fIY\fR\d\fIt\fR\uis the traffic at time \fIt\fR ,
  2727. .LP
  2728.     \(*b\fI\fI\d\fIi\fR\u, \fIi\fR = 0, 1, . |  | , \fIk\fR are the parameters,
  2729. .LP
  2730.      \fIX\fR\d\fIi\fR\\d\fIt\fR\u, \fIi\fR\d\fIe\fR\u= 1, 2, . |  | , \fIk\fR 
  2731. is the value of the independent variables at time\ \fIt\fR , 
  2732. .LP
  2733.     \fIu\fR\d\fIt\fR\uis the error term at time \fIt\fR .
  2734. .PP
  2735. Independent or explanatory variables which can be used in the
  2736. regression model are, for instance, tariffs, exports, imports, degree of
  2737. automation. Other explanatory variables are given in \(sc\ 2 \*QBase data for
  2738. forecasting\*U in Recommendation\ E.506.
  2739. .PP
  2740. Detailed descriptions of regression models are given in [1], [5], [7], 
  2741. [15] and\ [23]. 
  2742. .RT
  2743. .sp 1P
  2744. .LP
  2745. 3.7
  2746.     \fIEconometric models\fR 
  2747. .sp 9p
  2748. .RT
  2749. .PP
  2750. Econometric models involve equations which relate a variable which we wish 
  2751. to forecast (the dependent or endogenous variable) to a number of 
  2752. socio\(hyeconomic variables (called independent or explanatory variables). The
  2753. form of the equations should reflect an expected
  2754. .bp
  2755. .PP
  2756. casual relationship   between
  2757. the variables. Given an assumed model form, historical or cross sectional 
  2758. data are used to estimate coefficients in the equation. Assuming the model 
  2759. remains valid over time, estimates of future values of the independent 
  2760. variables can be used to give forecasts of the variables of interest. An 
  2761. example of a typical 
  2762. econometric model is given in Annex\ C.
  2763. .PP
  2764. There is a wide spectrum of possible models and a number of methods of 
  2765. estimating the coefficients (e.g.,\ least squares, varying parameter methods, 
  2766. nonlinear regression, etc.). In many respects the family of econometric 
  2767. models available is far more flexible than other models. For example, lagged 
  2768. effects can be incorporated, observations weighted, ARIMA residual models 
  2769. subsumed, 
  2770. information from separate sections pooled and parameters allowed to vary in
  2771. econometric models, to mention a few.
  2772. .PP
  2773. One of the major benefits of building an econometric model to be used in 
  2774. forecasting is that the structure or the process that generates the data 
  2775. must be properly identified and appropriate causal paths must be determined.
  2776. Explicit structure identification makes the source of errors in the forecast
  2777. easier to identify in econometric models than in other types of models.
  2778. .PP
  2779. Changes in structures can be detected through the use of econometric models 
  2780. and outliers in the historical data are easily eliminated or their 
  2781. influence properly weighted. Also, changes in the factors affecting the
  2782. variables in question can easily be incorporated in the forecast generated 
  2783. from an econometric model. 
  2784. .PP
  2785. Often, fairly reliable econometric models may be constructed with less 
  2786. observations than that required for time series models. In the case of 
  2787. pooled regression models, just a few observations for several cross\(hysections 
  2788. are 
  2789. sufficient to support a model used for predictions.
  2790. .PP
  2791. However, care must be taken in estimating the model to satisfy the
  2792. underlying assumptions of the techniques which are described in many of the
  2793. reference works listed at the end of this Recommendation. For example the
  2794. number of independent variables which can be used is limited by the amount 
  2795. of data available to estimate the model. Also, independent variables which 
  2796. are 
  2797. correlated to one another should be avoided. Sometimes correlation between 
  2798. the variables can be avoided by using differenced or detrended data or 
  2799. by 
  2800. transformation of the variables. For further studies see\ [8], [12], [13], 
  2801. [14] and\ [21]. 
  2802. .RT
  2803. .sp 2P
  2804. .LP
  2805. \fB4\fR     \fBDiscontinuities in traffic growth\fR 
  2806. .sp 1P
  2807. .RT
  2808. .sp 1P
  2809. .LP
  2810. 4.1
  2811.     \fIExamples of discontinuities\fR 
  2812. .sp 9p
  2813. .RT
  2814. .PP
  2815. It may be difficult to assess in advance the magnitude of a
  2816. discontinuity. Often the influence of the factors which cause discontinuties
  2817. is spread over a transitional period, and the discontinuity is not so obvious. 
  2818. Furthermore, discontinuities arising, for example, from the introduction 
  2819. of 
  2820. international subscriber dialling are difficult to identify accurately, 
  2821. because changes in the method of working are usually associated with other 
  2822. changes 
  2823. (e.g.\ tariff reductions).
  2824. .PP
  2825. An illustration of the bearing of discontinuities on traffic growth
  2826. can be observed in the graph of Figure\ 4/E.507.
  2827. .PP
  2828. Discontinuities representing the doubling \(em and even more \(em of traffic 
  2829. flow are known. It may also be noted that changes could occur in the growth 
  2830. trend after discontinuities.
  2831. .PP
  2832. In short\(hyterm forecasts it may be desirable to use the trend of the
  2833. traffic between discontinuities, but for long\(hyterm forecasts it may be
  2834. desirable to use a trend estimate which is based on long\(hyterm observations,
  2835. including previous discontinuities.
  2836. .PP
  2837. In addition to random fluctuations due to unpredictable traffic
  2838. surges, faults,\ etc., traffic measurements are also subject to systematic
  2839. fluctuations, due to daily or weekly traffic flow cycles, influence of time
  2840. differences,\ etc.
  2841. .RT
  2842. .sp 1P
  2843. .LP
  2844. 4.2
  2845.     \fIIntroduction of explanatory variables\fR 
  2846. .sp 9p
  2847. .RT
  2848. .PP
  2849. Identification of 
  2850. explanatory variables
  2851. for an econometric model is probably the most difficult aspect of econometric 
  2852. model building. The explanatory variables used in an econometric model 
  2853. identify the main sources of influence on the variable one is concerned 
  2854. with. A list of explanatory 
  2855. variables is given in Recommendation\ E.506, \(sc\ 2.
  2856. .bp
  2857. .RT
  2858. .LP
  2859. .rs
  2860. .sp 24P
  2861. .ad r
  2862. \fBFigure 4/E.507, p.\fR 
  2863. .sp 1P
  2864. .RT
  2865. .ad b
  2866. .RT
  2867. .PP
  2868. Economic theory is the starting point for variable selection. More
  2869. specifically, demand theory provides the basic framework for building the
  2870. general model. However, the description of the structure or the process
  2871. generating the data often dictate what variables enter the set of explanatory 
  2872. variables. For instance, technological relationships may need to be 
  2873. incorporated in the model in order to appropriately define the structure.
  2874. .PP
  2875. Although there are some criteria used in selecting explanatory
  2876. variables [e.g.,\ 
  2877. \fIR\fR  |
  2878. \u2\d, Durbin\(hyWatson\ (D\(hyW)
  2879. statistic, root mean square error\ (RMSE), ex\(hypost forecast performance,
  2880. explained in the references], statistical problems and/or
  2881. availability of data (either historical or forecasted) limit the set of
  2882. potential explanatory variables and one often has to revert to proxy variables. 
  2883. Unlike pure statistical models, econometric models admit explanatory 
  2884. variables, not on the basis of statistical criteria alone but, also, on the
  2885. premise that causality is, indeed, present.
  2886. .PP
  2887. A completely specified econometric model will capture turning points. Discontinuities 
  2888. in the dependent variable will not be present unless 
  2889. the parameters of the model change drastically in a very short time
  2890. period. Discontinuities in the growth of telephone traffic are indications 
  2891. that the underlying market or technological structure have undergone large 
  2892. changes. 
  2893. .PP
  2894. Sustained changes in the growth of telephone demand can either be
  2895. captured through varying parameter regression or through the introduction 
  2896. of a variable that appears to explain the discontinuity (e.g.,\ the introduction 
  2897. of an advertising variable if advertising is judged to be the cause of 
  2898. the 
  2899. structural change). Once\(hyand\(hyfor\(hyall, or step\(hywise discontinuities, 
  2900. cannot be handled by the introduction of explanatory changes: dummy variables 
  2901. can resolve this problem. 
  2902. .RT
  2903. .sp 1P
  2904. .LP
  2905. 4.3
  2906.     \fIIntroduction of dummy variables\fR 
  2907. .sp 9p
  2908. .RT
  2909. .PP
  2910. In econometric models, qualitative variables are often relevant; to measure 
  2911. the impact of 
  2912. qualitative variables
  2913. , dummy variables are used. The dummy variable technique uses the value\ 
  2914. 1 for the 
  2915. presence of the qualitative attribute that has an impact on the dependent
  2916. variable and\ 0 for the absence of the given attribute.
  2917. .bp
  2918. .PP
  2919. Thus, 
  2920. dummy variables
  2921. are appropriate to use in the case where a
  2922. discontinuity in the dependent variable has taken place. A dummy variable, 
  2923. for example, would take the value of zero during the historical period 
  2924. when calls were operator handled and one for the period for which direct 
  2925. dial service is available. 
  2926. .PP
  2927. Dummy variables are often used to capture seasonal effects in the
  2928. dependent variable or when one needs to eliminate the effect of an outlier 
  2929. on the parameters of a model, such as a large jump in telephone demand 
  2930. due to a 
  2931. postal strike or a sharp decline due to facility outages associated with 
  2932. severe weather conditions. 
  2933. .PP
  2934. Indiscriminate use of dummy variables should be discouraged for two
  2935. reasons:
  2936. .RT
  2937. .LP
  2938.     1)
  2939.     dummy variables tend to absorb all the explanatory power
  2940. during discontinuties, and
  2941. .LP
  2942.     2)
  2943.     they result in a reduction in the degrees of freedom.
  2944. .sp 2P
  2945. .LP
  2946. \fB5\fR     \fBAssessing model specification\fR 
  2947. .sp 1P
  2948. .RT
  2949. .sp 1P
  2950. .LP
  2951. 5.1
  2952.     \fIGeneral\fR 
  2953. .sp 9p
  2954. .RT
  2955. .PP
  2956. In this section methods for testing the significance of the
  2957. parameters and also methods for calculating confidence intervals are
  2958. presented for some of the forecasting models given in \(sc\ 3. In particular 
  2959. the 
  2960. methods relating to regression analysis and time series analysis will be
  2961. discussed.
  2962. .PP
  2963. All econometric forecasting models presented here are described as
  2964. regression models. Also the curve fitting models given in \(sc\ 3.1 can be
  2965. described as regression models.
  2966. .PP
  2967. An exponential model given by
  2968. \v'6p'
  2969. .RT
  2970. .ce 1000
  2971. \fIZ
  2972. \dt\u\fR = \fIae\fR \fI
  2973. \ubt
  2974. \d\fR  | (mu | fIu\fR\d\fIt\fR\u
  2975. .ce 0
  2976. .ad r
  2977. (5\(hy1)
  2978. .ad b
  2979. .RT
  2980. .LP
  2981. .sp 1
  2982. may be transformed to a linear form
  2983. \v'6p'
  2984. .ce 1000
  2985. ln \fIZ
  2986. \dt\u\fR = ln \fIa\fR + \fIbt\fR + ln \fIu\fR\d\fIt\fR\u
  2987. .ce 0
  2988. .ad r
  2989. (5\(hy2)
  2990. .ad b
  2991. .RT
  2992. .LP
  2993. .sp 1
  2994. or
  2995. \v'6p'
  2996. .ce 1000
  2997. \fIY
  2998. \dt\u\fR = \(*b
  2999. \d0\u + \(*b
  3000. \d1\u\fIX\fR\d\fIt\fR\u+ \fIa\fR\d\fIt\fR\u
  3001. .ce 0
  3002. .ad r
  3003. (5\(hy3)
  3004. .ad b
  3005. .RT
  3006. .LP
  3007. .sp 1
  3008. where
  3009. .LP
  3010.     \fIY\fR\d\fIt\fR\u    =\ ln \fIZ\fR\d\fIt\fR\u
  3011. .LP
  3012.     \(*b\d0\u    =\ ln \fIa\fR 
  3013. .LP
  3014.     \(*b\d1\u    =\ \fIb\fR 
  3015. .LP
  3016.     \fIX\fR\d\fIt\fR\u    =\ \fIt\fR 
  3017. .LP
  3018.     \fIa\fR\d\fIt\fR\u    =\ ln \fIu\fR\d\fIt\fR\u(white noise).
  3019. .sp 1P
  3020. .LP
  3021. 5.2
  3022.     \fIAutocorrelation\fR 
  3023. .sp 9p
  3024. .RT
  3025. .PP
  3026. A good forecasting model should lead to small autocorrelated
  3027. residuals. If the residuals are significantly correlated, the estimated
  3028. parameters and also the forecasts may be poor. To check whether the errors 
  3029. are correlated, the autocorrelation function\ \fIr\fR\d\fIk\fR\u, \fIk\fR 
  3030. \ =\ 1, 2,\ . |  |  is 
  3031. calculated. \fIr\fR\d\fIk\fR\uis the estimated autocorrelation of residuals 
  3032. at lag \fIk\fR . A way to detect autocorrelation among the residuals is 
  3033. to plot the 
  3034. autocorrelation function and to perform a Durbin\(hyWatson test. The
  3035. Durbin\(hyWatson statistic
  3036. is:
  3037. \v'6p'
  3038. .RT
  3039. .ad r
  3040. .ad b
  3041. .RT
  3042. .LP
  3043. where
  3044. .LP
  3045.     \fIe\fR\d\fIt\fR\u    is the estimated residual at time \fIt\fR ,
  3046. .LP
  3047.     \fIN\fR     is the number of observations.
  3048. .bp
  3049. .sp 1P
  3050. .LP
  3051. 5.3
  3052.     \fITest of significance of the parameters\fR 
  3053. .sp 9p
  3054. .RT
  3055. .PP
  3056. One way to evaluate the forecasting model is to analyse the impact of different 
  3057. exogenous variables. After estimating the parameters in the 
  3058. regression model, the significance of the parameters has to be tested.
  3059. .PP
  3060. In the example of an econometric model in Annex\ C, the estimated
  3061. values of the parameters are given. Below these values the estimated standard 
  3062. deviation is given in parentheses. As a rule of thumb, the parameters are 
  3063. considered as significant if the absolute value of the estimates exceeds 
  3064. twice the estimated standard deviation. A more accurate way of testing 
  3065. the 
  3066. significance of the parameters is to take into account the distributions of
  3067. their estimators.
  3068. .PP
  3069. The 
  3070. multiple correlation coefficient
  3071. (or 
  3072. coefficient
  3073. of determination
  3074. ) may be used as a criterion for the fitting of the
  3075. equation.
  3076. .PP
  3077. The multiple correlation coefficient, \fIR\fR \u2\d, is given
  3078. by:
  3079. \v'6p'
  3080. .RT
  3081. .ad r
  3082. .ad b
  3083. .RT
  3084. .PP
  3085. If the multiple correlation coefficient is close to 1 the fitting is satisfactory. 
  3086. However, a high \fIR\fR \u2\d does not imply an accurate 
  3087. forecast.
  3088. .PP
  3089. In time series analysis, the discussion of the model is carried out in 
  3090. another way. As pointed out in \(sc\ 3.4, the number of autoregressive 
  3091. and 
  3092. moving average parameters in an ARIMA model is determined by an identification 
  3093. procedure based on the structure of the autocorrelation and partial 
  3094. autocorrelation function.
  3095. .PP
  3096. The estimation of the parameters and their standard deviations is
  3097. performed by an iterative nonlinear estimation procedure. Hence, by using a
  3098. time series analysis computer program, the estimates of the parameters 
  3099. can be evaluated by studying the estimated standard deviations in the same 
  3100. way as in regression analysis. 
  3101. .PP
  3102. An overall test of the fitting is based on the statistic
  3103. \v'6p'
  3104. .RT
  3105. .ad r
  3106. .ad b
  3107. .RT
  3108. .LP
  3109. where \fIr\fR\d\fIi\fR\uis the estimated autocorrelation at lag \fIi\fR 
  3110. and \fId\fR is the number of parameters in the model. When the model is 
  3111. adequate, \fIQ 
  3112. \dN\fR \(em\fId
  3113. \u\fR is
  3114. approximately chi\(hysquare distributed with \fIN \(em d\fR degrees of 
  3115. freedom. To test the fitting, the value \fIQ 
  3116. \d\fIN\fR \(em\fId
  3117. \u\fR can be compared with fractiles of
  3118. the chi\(hysquare distribution.
  3119. .sp 1P
  3120. .LP
  3121. 5.4
  3122.     \fIValidity of exogenous variables\fR 
  3123. .sp 9p
  3124. .RT
  3125. .PP
  3126. Econometric forecasting models are based on a set of exogenous
  3127. variables which explain the development of the endogenous variable (the 
  3128. traffic demand). To make forecasts of the traffic demand, it is necessary 
  3129. to make 
  3130. forecasts of each of the exogenous variables. It is very important to point 
  3131. out that an exogenous variable should not be included in the forecasting 
  3132. model if the prediction of the variable is less confident than the prediction 
  3133. of the 
  3134. traffic demand.
  3135. .PP
  3136. Suppose that the exact development of the exogenous variable is known which, 
  3137. for example,\ is the case for the simple models where time is the 
  3138. explanatory variables. If the model fitting is good and the white noise is
  3139. normally distributed with expectation equal to zero, it is possible to
  3140. calculate confidence limits for the forecasts. This is easily done by a
  3141. computer program.
  3142. .PP
  3143. On the other hand, the values of most of the explanatory variables
  3144. cannot be predicted exactly. The confidence of the prediction will then
  3145. decrease with the number of periods. Hence, the explanatory variables will
  3146. cause the confidence interval of the forecasts to increase with the number 
  3147. of the forecast periods. In these situations it is difficult to calculate 
  3148. confidence interval around the forecasted values.
  3149. .bp
  3150. .PP
  3151. If the traffic demand can be described by an autoregressive moving
  3152. average model, no explanatory variables are included in the model. Hence, if
  3153. there are no explanatory variable in the model, the confidence limits of the
  3154. forecasting values can be calculated. This is done by a time series analysis
  3155. program package.
  3156. .RT
  3157. .sp 1P
  3158. .LP
  3159. 5.5
  3160.     \fIConfidence intervals\fR 
  3161. .sp 9p
  3162. .RT
  3163. .PP
  3164. Confidence intervals, in the context of forecasts, refer to
  3165. statistical constructs of forecast bounds or limits of prediction. Because
  3166. statistical models have errors associated with them, parameter estimates 
  3167. have some variability associated with their values. In other words, even 
  3168. if one has identified the correct forecasting model, the influence of endogenous 
  3169. factors will cause errors in the parameter estimates and the forecast. 
  3170. Confidence 
  3171. intervals take into account the uncertainty associated with the parameter
  3172. estimates.
  3173. .PP
  3174. In causal models, another source of uncertainty in the forecast of the 
  3175. series under study are the predictions of the explanatory variables. This 
  3176. type of uncertainty cannot be handled by confidence intervals and is usually 
  3177. ignored, even though it may be more significant than the uncertainty associated 
  3178. with coefficient estimates. Also, uncertainty due to possible outside shocks 
  3179. is not reflected in the confidence intervals. 
  3180. .PP
  3181. For a linear, static regression model, the confidence interval of the forecast 
  3182. depends on the reliability of the regression coefficients, the size of 
  3183. the residual variance, and the values of the explanatory variables. The 
  3184. 95% 
  3185. confidence interval for a forecasted value \fIY
  3186. \dN\fR +1\fI
  3187. \u\fR is given
  3188. by:
  3189. \v'6p'
  3190. .RT
  3191. .ce 1000
  3192. \fI/*^Y\fI\d\fIN\fR\u(1) \(em 2\(*/*^s \(= \fIY\fR\d\fIN\fR\u\d+1
  3193. \u \(= \fI/*^Y\fI\d\fIN\fR\u(1) +
  3194. 2\(*/*^s
  3195. .ce 0
  3196. .ad r
  3197. (5\(hy7)
  3198. .ad b
  3199. .RT
  3200. .LP
  3201. .sp 1
  3202. where \fI/*^Y\fI\d\fIN\fR\u(1) is the forecast one step ahead and \(*/*^s 
  3203. is the standard error of the forecast. 
  3204. .PP
  3205. This says that we expect, with a 95% probability, that the actual value 
  3206. of the series at time \fIN\fR + 1 will fall within the limits given by 
  3207. the confidence interval, assuming that there are no errors associated with 
  3208. the forecast of the explanatory variables. 
  3209. .sp 2P
  3210. .LP
  3211. \fB6\fR     \fBComparison of alternative forecasting models\fR 
  3212. .sp 1P
  3213. .RT
  3214. .sp 1P
  3215. .LP
  3216. 6.1
  3217.     \fIDiagnostic check \(em Model evaluation\fR 
  3218. .sp 9p
  3219. .RT
  3220. .PP
  3221. Tests and diagnostic checks are important elements in the model
  3222. building procedure. The quality of the model is characterized by the residuals. 
  3223. Good forecasting models should lead to small autocorrelated residuals, 
  3224. the 
  3225. variance of the residuals should not decrease or increase and the expectation 
  3226. of the residuals should be zero or close to zero. The precision of the 
  3227. forecast is affected by the size of the residuals which should be small. 
  3228. .PP
  3229. In addition the confidence limits of the parameter estimates and the forecasts 
  3230. should be relatively small. And in the same way, the mean square 
  3231. error should be small compared with results from other models.
  3232. .RT
  3233. .sp 1P
  3234. .LP
  3235. 6.2
  3236.     \fIForecasts of levels versus forecasts of changes\fR 
  3237. .sp 9p
  3238. .RT
  3239. .PP
  3240. Many econometric models are estimated using levels of the dependent and 
  3241. independent variables. Since economic variables move together over time, 
  3242. high coefficients of determination are obtained. The collinearity among the
  3243. levels of the explanatory variables does not present a problem when a model 
  3244. is used for forecasting purposes alone, given that the collinearity pattern 
  3245. in the past continues to exist in the future. However, when one attempts 
  3246. to measure 
  3247. structural coefficients (e.g.,\ price and income elasticities) the collinearity 
  3248. of the explanatory variables (known as multicollinearity) renders the results 
  3249. of the estimated coefficients unreliable. 
  3250. .PP
  3251. To avoid the multicollinearity problem and generate benchmark
  3252. coefficient estimates and forecasts, one may use changes of the variables
  3253. (first difference or first log difference which is equivalent to a percent
  3254. change) to estimate a model and forecast from that model. Using changes of
  3255. variables to estimate a model tends to remove the effect of multicollinearity 
  3256. and produce more reliable coefficient estimates by removing the common 
  3257. effect of economic influences on the explanatory variables. 
  3258. .bp
  3259. .PP
  3260. By generating forecasts through levels of and changes in the
  3261. explanatory variables, one may be able to produce a better forecast through 
  3262. a reconciliation process. That is, the models are adjusted so that the 
  3263. two sets of forecasts give equivalent results. 
  3264. .RT
  3265. .sp 1P
  3266. .LP
  3267. 6.3
  3268.     \fIEx\(hypost forecasting\fR 
  3269. .sp 9p
  3270. .RT
  3271. .PP
  3272. Ex\(hypost forecasting is the generation of a forecast from a model
  3273. estimated over a sub\(hysample of the data beginning with the first observation
  3274. and ending several periods prior to the last observation. In ex\(hypost
  3275. forecasting, actual values of the explanatory variables are used to generate
  3276. the forecast. Also, if forecasted values of the explanatory variables are 
  3277. used to produce an ex\(hypost forecast, one can then measure the error 
  3278. associated with incorrectly forecasted explanatory variables. 
  3279. .PP
  3280. The purpose of ex\(hypost forecasting is to evaluate the forecasting
  3281. performance of the model by comparing the forecasted values with the actuals 
  3282. of the period after the end of the sub\(hysample to the last observation. 
  3283. With 
  3284. ex\(hypost forecasting, one is able to assess forecast accuracy in
  3285. terms of:
  3286. .RT
  3287. .LP
  3288.     1)
  3289.     percent deviations of forecasted values from actual values,
  3290. .LP
  3291.     2)
  3292.     turning point performance,
  3293. .LP
  3294.     3)
  3295.     systematic behaviour of deviations.
  3296. .PP
  3297. Deviations of forecasted values from actual values give a general idea 
  3298. of the accuracy of the model. Systematic drifts in deviations may provide 
  3299. information for either re\(hyspecifying the model or adjusting the forecast 
  3300. to 
  3301. account for the drift in deviations. Of equal importance in evaluating 
  3302. forecast accuracy is turning point performance, that is, how well the model 
  3303. is able 
  3304. to
  3305. forecast changes in the movement of the dependent variable. More criteria 
  3306. for evaluating forecast accuracy are discussed below. 
  3307. .sp 1P
  3308. .LP
  3309. 6.4
  3310.     \fIForecast performance criteria\fR 
  3311. .sp 9p
  3312. .RT
  3313. .PP
  3314. A model might fit the historical data very well. However, when the forecasts 
  3315. are compared with future data that are not used for estimation of 
  3316. parameters, the fit might not be so good. Hence comparison of forecasts with
  3317. actual observations may give additional information about the quality of the
  3318. model. Suppose we have the time series, \fIY\fR\d1\u, \fIY\fR\d2\u,  |  |  |  | , 
  3319. \fIY\fR\d\fIN\fR\u, \fI\fR \fIY\fR\d\fIN\fR\\d+\\d1\u,  |  |  |  | , \fIY\fR\d\fIN\fR\\d+\u\fI\fI\d\fIM\fR\u. 
  3320. .PP
  3321. The \fIM\fR last observations are removed from the time series and the
  3322. model building procedure. The one\(hystep\(hyahead forecasting error is given
  3323. by:
  3324. \v'6p'
  3325. .RT
  3326. .ce 1000
  3327. \fIe\fR\d\fIN\fR\\d+\u\fI\fI\d\fIt\fR\u= \fIY\fR\d\fIN\fR\\d+\u\fI\fI\d\fIt\fR\u\(em 
  3328. \fI/*^Y\fI\d\fIN\fR\\d+\u\fI\fI\d\fIt\fR\\d\\u(em\d1\u(1) 
  3329. \ \ \ \fIt\fR = 1, 2, |  |  |  |  \fIM\fR 
  3330. .ce 0
  3331. .ad r
  3332. (6\(hy1)
  3333. .ad b
  3334. .RT
  3335. .LP
  3336. .sp 1
  3337. where
  3338. .LP
  3339.      \fI/*^Y\fI\d\fIN\fR\\d+\u\fI\fI\d\fIt\fR\\d\\u(em\d1\u(1) is the one\(hystep\(hyahead 
  3340. forecast. 
  3341. .sp 1P
  3342. .LP
  3343.     \fIMean error\fR 
  3344. .sp 9p
  3345. .RT
  3346. .PP
  3347. The mean error, ME, is defined by
  3348. \v'6p'
  3349. .RT
  3350. .ad r
  3351. .ad b
  3352. .RT
  3353. .PP
  3354. ME is a criterium for forecast bias. Since the expectation of
  3355. the residuals should be zero, a large deviation from zero indicates bias 
  3356. in the forecasts. 
  3357. .sp 1P
  3358. .LP
  3359.     \fIMean percent error\fR 
  3360. .sp 9p
  3361. .RT
  3362. .PP
  3363. The mean percent error, MPE, is defined by
  3364. \v'6p'
  3365. .RT
  3366. .ad r
  3367. .ad b
  3368. .RT
  3369. .LP
  3370. .bp
  3371. .PP
  3372. This statistic also indicates possible bias in the forecasts.
  3373. The criterium measures percentage deviation in the bias. It is not recommended 
  3374. to use MPE when the observations are small. 
  3375. .sp 1P
  3376. .LP
  3377.     \fIRoot mean square error\fR 
  3378. .sp 9p
  3379. .RT
  3380. .PP
  3381. The root mean square error, RMSE, of the forecast is defined
  3382. as
  3383. \v'6p'
  3384. .RT
  3385. .ad r
  3386. .ad b
  3387. .RT
  3388. .PP
  3389. RMSE is the most commonly used measure for forecasting
  3390. precision.
  3391. .sp 1P
  3392. .LP
  3393.     \fIMean absolute error\fR 
  3394. .sp 9p
  3395. .RT
  3396. .PP
  3397. The mean absolute error, MAE, is given by
  3398. \v'6p'
  3399. .RT
  3400. .ad r
  3401. .ad b
  3402. .RT
  3403. .sp 1P
  3404. .LP
  3405.     \fITheil's inequality coefficient\fR 
  3406. .sp 9p
  3407. .RT
  3408. .PP
  3409. Theil's inequality coefficient is defined as follows:
  3410. \v'6p'
  3411. .RT
  3412. .ad r
  3413. .ad b
  3414. .RT
  3415. .PP
  3416. Theil's \fIU\fR is preferred as a measure of forecast accuracy because 
  3417. the error between forecasted and actual values can be broken down to errors 
  3418. due to: 
  3419. .LP
  3420.     1)
  3421.     central tendency,
  3422. .LP
  3423.     2)
  3424.     unequal variation between predicted and realized changes,
  3425. and
  3426. .LP
  3427.     3)
  3428.     incomplete covariation of predicted and actual
  3429. changes.
  3430. .PP
  3431. This decomposition of prediction errors can be used to adjust the model 
  3432. so that the accuracy of the model can be improved. 
  3433. .PP
  3434. Another quality that a forecasting model must possess is ability to
  3435. capture turning points. That is, a forecast must be able to change direction 
  3436. in the same time period that the actual series under study changes direction. 
  3437. If a model is estimated over a long period of time which contains several 
  3438. turning 
  3439. points, ex\(hypost forecast analysis can generally detect a model's inability 
  3440. to trace closely actuals that display turning points. 
  3441. .RT
  3442. .sp 2P
  3443. .LP
  3444. \fB7\fR     \fBChoice of forecasting model\fR 
  3445. .sp 1P
  3446. .RT
  3447. .sp 1P
  3448. .LP
  3449. 7.1
  3450.     \fIForecasting performance\fR 
  3451. .sp 9p
  3452. .RT
  3453. .PP
  3454. Although the choice of a forecasting model is usually guided by its forecasting 
  3455. performance, other considerations must receive attention. Thus, 
  3456. the length of the forecast period, the functional form, and the forecast
  3457. accuracy of the explanatory variables of an econometric model must be
  3458. considered.
  3459. .PP
  3460. The length of the forecast period affects the decision to use one type 
  3461. of a model versus another, along with historical data limitations and the 
  3462. purpose of the forecasting model. For instance, ARIMA models may be appropriate 
  3463. forecasting models for short\(hyterm forecasts when stability is not an 
  3464. issue, 
  3465. when sufficient historical data are available, and when causality is not of
  3466. interest. Also, when the structure that generates the data is difficult to
  3467. identify, one has no choice but to use a forecasting model which is based on
  3468. historical data of the variable of interest.
  3469. .bp
  3470. .PP
  3471. The functional form of the model must also be considered in a
  3472. forecasting model. While it is true that a more complex model may reduce the
  3473. model specification error, it is also true that it will, in general,
  3474. considerably increase the effect of data errors. The model form should be
  3475. chosen to recognize the trade\(hyoff between these sources of error.
  3476. .PP
  3477. Availability of forecasts for explanatory variables and their
  3478. reliability record is another issue affecting the choice of a forecasting
  3479. model. A superior model using explanatory variables which may not be forecasted 
  3480. accurately can be inferior to an average model whose explanatory variables 
  3481. are forecasted accurately. 
  3482. .PP
  3483. When market stability is an issue, econometric models which can handle 
  3484. structural changes should be used to forecast. When causality matters, 
  3485. simple models or ARIMA models cannot be used as forecasting tools. Nor 
  3486. can they be 
  3487. used when insufficient historical data exist. Finally, when the purpose 
  3488. of the model is to forecast the effects associated with changes in the 
  3489. factors that 
  3490. influence the variable in question, time series models may not be appropriate 
  3491. (with the exception, of course, of transfer function and multiple time 
  3492. series models). 
  3493. .RT
  3494. .sp 1P
  3495. .LP
  3496. 7.2
  3497.     \fILength of forecast period\fR 
  3498. .sp 9p
  3499. .RT
  3500. .PP
  3501. For normal extensions of switching equipment and additions of
  3502. circuits, a forecast period of about six years is necessary. However, a 
  3503. longer forecast period may be necessary for the planning of new cables 
  3504. or other 
  3505. transmission media or for major plant installations. Estimates in the long 
  3506. term would necessarily be less accurate than short\(hyterm forecasts but 
  3507. that would be acceptable. 
  3508. .PP
  3509. In forecasting with a statistical model, the length of the forecast
  3510. period is entirely determined by:
  3511. .RT
  3512. .LP
  3513.     a)
  3514.     the historical data available,
  3515. .LP
  3516.     b)
  3517.     the purpose or use of the forecast,
  3518. .LP
  3519.     c)
  3520.     the market structure that generates the data,
  3521. .LP
  3522.     d)
  3523.     the forecasting model used,
  3524. .LP
  3525.     e)
  3526.     the frequency of the data.
  3527. .PP
  3528. The historical data available depends upon the period over which it has 
  3529. been collected and the frequency of collection (or the length of the 
  3530. period over which data is aggregated). A small historical data base can only
  3531. support a short prediction interval. For example, with 10 or 20\ observations
  3532. .PP
  3533. a model can be used to forecast 4\(hy5\ periods past the sample (i.e.\ into the
  3534. future). On the other hand, with 150\(hy200\ observations, potentially reliable
  3535. forecasts can be obtained for 30 to 50\ periods past the sample \(em\ other 
  3536. things being equal. 
  3537. .PP
  3538. Certainly, the purpose of the forecast affects the number of predicted 
  3539. periods. Long range facility planning requires forecasts extending 15\(hy20 
  3540. or 
  3541. more years into the future. Rate change evaluations may only require forecasts 
  3542. for 2\(hy3\ years. Alteration of routing arrangements could only require 
  3543. forecasts extending a few months past the sample. 
  3544. .PP
  3545. Stability of a market, or lack thereof, also affect the length of the forecast 
  3546. period. With a stable market structure one could conceivably extend 
  3547. the forecast period to equal the historical period. However, a volatile 
  3548. market does not afford the same luxury to the forecaster; the forecast 
  3549. period can only consist of a few periods into the future. 
  3550. .PP
  3551. The forecasting models used to generate forecasts do, by their nature, 
  3552. influence the decision on how far into the future one can reasonably forecast. 
  3553. Structural 
  3554. models tend to perform better than other models in the long run, while for
  3555. short\(hyrun predictions all models seem to perform equally well.
  3556. .PP
  3557. It should be noted that while the purpose of the forecast and the
  3558. forecasting model affect the length of the forecast, the number of periods 
  3559. to be forecasted play a crucial role in the choice of the forecasting model 
  3560. and 
  3561. the use to which a forecast is put.
  3562. \v'1P'
  3563. .bp
  3564. .RT
  3565. .ce 1000
  3566. ANNEX\ A
  3567. .ce 0
  3568. .ce 1000
  3569. (to Recommendation E.507)
  3570. .sp 9p
  3571. .RT
  3572. .ce 0
  3573. .ce 1000
  3574. \fBDescription of forecasting procedures\fR 
  3575. .sp 1P
  3576. .RT
  3577. .ce 0
  3578. .LP
  3579. A.1
  3580.     \fIEstimation of \fR \fIautoregressive parameters\fR 
  3581. .sp 1P
  3582. .RT
  3583. .PP
  3584. The empirical autocorrelation at lag \fIk\fR is given by:
  3585. \v'6p'
  3586. .RT
  3587. .ce 1000
  3588. \fIr
  3589. \dk\u\fR = 
  3590. @ { fIv~\dk\u\fR } over { fIv\fR~\d0\u } @ 
  3591. .ce 0
  3592. .ad r
  3593. (A\(hy1)
  3594. \v'7p'
  3595. .ad b
  3596. .RT
  3597. .LP
  3598. .sp 1
  3599. where
  3600. \v'6p'
  3601. .ad r
  3602. .ad b
  3603. .RT
  3604. .LP
  3605. and
  3606. \v'6p'
  3607. .ad r
  3608. .ad b
  3609. .RT
  3610. .LP
  3611. \fIN\fR being the total number of observations.
  3612. .PP
  3613. The relation between [\fIr\fR\d\fIk\fR\u] and the estimates
  3614. [\fI\*^\(*g\fI\d\fIk\fR\u] of [\(*g\fI\fI\d\fIk\fR\u] is given by the 
  3615. Yule\(hyWalker
  3616. equations
  3617. :
  3618. \v'6p'
  3619. .LP
  3620. \fIr\fR \d1\u\ =\ \*^\(*g
  3621. \d1\u + \*^\(*g
  3622. \d2\u\fIr\fR \d1\u + . |  |  + \*^\(*g\fI
  3623. \dp\ur
  3624. \dp\fR \(em1\fI
  3625. \u\fR 
  3626. .LP
  3627. \fIr\fR \d2\u\ =\ \*^\(*g
  3628. \d1\u\fIr\fR \d1\u + \*^\(*g
  3629. \d2\u\fIr\fR \d2\u + . |  |  +
  3630. \*^\(*g\fI
  3631. \dp\ur
  3632. \dp\fR \(em2\fI
  3633. \u\fR 
  3634. .ad r
  3635. \fB\(mu\fR (A\(hy4)
  3636. .ad b
  3637. .RT
  3638. .LP
  3639. \fB\(mu\fR 
  3640. .LP
  3641. \fB\(mu\fR 
  3642. .LP
  3643. \fIr
  3644. \dp\u\fR \ =\ \*^\(*g
  3645. \d1\u\fIr\fR \d\fIp\fR \(em1
  3646. \u + \*^\(*g
  3647. \d2\u\fIr\fR \d\fIp\fR \(em2
  3648. \u + . |  |  +
  3649. \*^\(*g\fI
  3650. \dp\u\fR 
  3651. .PP
  3652. .sp 1
  3653. Hence the estimators [\*^\(*g\fI\fI\d\fIk\fR\u] can be found by solving 
  3654. this system of equations. 
  3655. .PP
  3656. For computations, an alternative to directly solving the equations is the 
  3657. following recursive procedure. Let [ \*^\(*g\fI 
  3658. \dk\fR , | fIj
  3659. \u\fR ]\fI
  3660. \dj\u\fR be
  3661. estimators of the parameters at lag \fIj\fR \ =\ 1, 2, . |  | ,\ \fIk\fR 
  3662. given that the total number of parameters 
  3663. are \fIk\fR . The estimators [\*^\(*g\fI
  3664. \dk\fR +1, | fIj\fR \fI
  3665. \u\fR ]\fI
  3666. \dj\u\fR are then found
  3667. by
  3668. \v'6p'
  3669. .RT
  3670. .ad r
  3671. .ad b
  3672. .RT
  3673. .PP
  3674. Defining \*^\(*g\fI
  3675. \dp\fR , | fIj
  3676. \u\fR = \*^\(*g\fI
  3677. \dj\u\fR ,  | fIj\fR = 1, 2, . |  | , \fIp\fR , the forecast of the traffic 
  3678. demand at time \fIt\fR +1 is expressed by: 
  3679. \v'6p'
  3680. .ce 1000
  3681. \fIX
  3682. \dt\fR +1\fI
  3683. \u\fR = \*^\(*g
  3684. \d1\u\fIX
  3685. \dt\u\fR + \(*g 
  3686. \d2\u\fIX
  3687. \dt\fR \(em1\fI
  3688. \u\fR + . |  |  +
  3689. \*^\(*g\fI
  3690. \dp\uX
  3691. \dt\fR \(em\fIp
  3692. \u\fR 
  3693. .ce 0
  3694. .ad r
  3695. (A\(hy7)
  3696. .ad b
  3697. .RT
  3698. .LP
  3699. .sp 1
  3700. .bp
  3701. .sp 1P
  3702. .LP
  3703. A.2
  3704.     \fIForecasting with ARIMA models\fR 
  3705. .sp 9p
  3706. .RT
  3707. .PP
  3708. The forecast \fIl\fR time units ahead is given by:
  3709. \v'6p'
  3710. .RT
  3711. .ad r
  3712. .ad b
  3713. .RT
  3714. .ad r
  3715. .ad b
  3716. .RT
  3717. .LP
  3718. which means that [\fIX\fR\d\fIj\fR\u] is defined as a forecast when
  3719. \fIj\fR \ >\ \fIt\fR and otherwise as
  3720. an actual observation and that [\fIa\fR\d\fIj\fR\u] is defined as 0 when 
  3721. \fIj\fR \ >\ \fIt\fR since white 
  3722. noise has expectation 0. If the observations are known (
  3723. \fIj\fR \ \(=\ \fIt\fR ), then  [\fIa\fR\d\fIj\fR\u] is equal to the residual.
  3724. \v'1P'
  3725. .ce 1000
  3726. ANNEX\ B
  3727. .ce 0
  3728. .ce 1000
  3729. (to Recommendation\ E.507)
  3730. .sp 9p
  3731. .RT
  3732. .ce 0
  3733. .ce 1000
  3734. \fBKalman Filter\fR \fBfor a linear trend model\fR 
  3735. .sp 1P
  3736. .RT
  3737. .ce 0
  3738. .PP
  3739. To model telephone traffic, it is assumed that there are no
  3740. deterministic changes in the demand pattern. This situation can be modelled 
  3741. by setting the deterministic component\ \fIZ\fR\d\fIt\fR\uto zero. Then 
  3742. the general state 
  3743. space model is:
  3744. \v'6p'
  3745. .sp 1P
  3746. .RT
  3747. .ce 1000
  3748. \fIX\fR\d\fIt\fR\\d+\\d1\u= \(*f\fIX\fR\d\fIt\fR\u+ \(*w\fI\fI\d\fIt\fR\u
  3749. .ce 0
  3750. .ce 1000
  3751. (B\(hy1)
  3752. \fIY\fR\d\fIt\fR\u= \fIHX\fI\d\fIt\fR\u+ \(*n\fI\fI\d\fIt\fR\u
  3753. .ce 0
  3754. .LP
  3755. .sp 1
  3756. .LP
  3757. where
  3758. .LP
  3759.     \fIX\fR\d\fIt\fR\u    is an s\(hyvector of state variables in period \fIt\fR ,
  3760. .LP
  3761.     \fIY\fR\d\fIt\fR\u    is a vector of measurements in year \fIt\fR ,
  3762. .LP
  3763.     \(*f
  3764.      is an \fIs\fR \(mu\fIs\fR transition matrix that may, in general, depend 
  3765. on \fIt\fR , 
  3766. .LP
  3767. and
  3768. .LP
  3769.     \(*w\fI\fI\d\fIt\fR\u    is an s\(hyvector of random modelling errors,
  3770. .LP
  3771.     \(*n\fI\fI\d\fIt\fR\u    is the measurement error in year \fIt\fR .
  3772. .PP
  3773. For modelling telephone traffic demand, adapt a simple two\(hystate, one\(hydata 
  3774. variable model defined by: 
  3775. \v'6p'
  3776. .ad r
  3777. .ad b
  3778. .RT
  3779. .LP
  3780. and
  3781. \v'6p'
  3782. .ce 1000
  3783. \fIy\fR\d\fIt\fR\u= \fIx\fR\d\fIt\fR\u+ \(*n\fI\fI\d\fIt\fR\u
  3784. .ce 0
  3785. .ad r
  3786. (B\(hy3)
  3787. .ad b
  3788. .RT
  3789. .LP
  3790. .sp 1
  3791. .LP
  3792. where
  3793. .LP
  3794.     \fIx\fR\d\fIt\fR\u    is the true load in year \fIt\fR ,
  3795. .LP
  3796.     \fI\o'x\(de'\fI\d\fIt\fR\u    is the true incremental growth in year \fIt\fR ,
  3797. .LP
  3798.     \fIy\fR\d\fIt\fR\u    is the measured load in year \fIt\fR ,
  3799. .LP
  3800.     \(*n\fI\fI\d\fIt\fR\u    is the measurement error in year \fIt\fR .
  3801. .bp
  3802. .LP
  3803. Thus, in our model
  3804. \v'6p'
  3805. .ad r
  3806. .ad b
  3807. .RT
  3808. .LP
  3809. The one\(hystep\(hyahead projection is written as follows:
  3810. \v'6p'
  3811. .ad r
  3812. .ad b
  3813. .RT
  3814. .LP
  3815. where
  3816. .PP
  3817. \fIX
  3818. \dt\fR +1,\fIt
  3819. \u\fR is the projection of the state variable in
  3820. period \fIt\fR \ +\ 1 given observations through year\ \fIt\fR .
  3821. .PP
  3822. The \(*a\fI\fI\d\fIt\fR\uand \(*b\fI\fI\d\fIt\fR\ucoefficients are the 
  3823. Kalman gain matrices in year \fIt\fR . Rewriting the above equation yields: 
  3824. \v'6p'
  3825. .RT
  3826. .ce 1000
  3827. \fIx\fR\d\fIt\fR\\d\fI,\fR\\d\fIt\fR\u= (1\(em\(*a\fI\fI\d\fIt\fR\u)\fIx
  3828. \dt,t\fR \(em1\fI
  3829. \u\fR +
  3830. \(*a\fI\fI\d\fIt\fR\u
  3831. .EF '%    \fI''
  3832. .OF '''\fI    %'
  3833. .ce 0
  3834. .ad r
  3835. (B\(hy6)
  3836. .ad b
  3837. .RT
  3838. .LP
  3839. .sp 1
  3840. .LP
  3841. and
  3842. \v'6p'
  3843. .ce 1000
  3844. \fI\o'x\(de'\fI\d\fIt\fR\\d\fI,\fR\\d\fIt\fR\u= (1\(em\(*b\fI\fI\d\fIt\fR\u)\fI\o'x\(de' 
  3845. \dt,t\fR \(em1\fI
  3846. \u\fR + \(*b\fI\fI\d\fIt\fR\u(\fIy\fR\d\fIt\fR\u\(em \fIx
  3847. \dt\fR \(em1,\fIt\fR \(em1\fI
  3848. \u\fR )
  3849. .ce 0
  3850. .ad r
  3851. (B\(hy7)
  3852. .ad b
  3853. .RT
  3854. .PP
  3855. .sp 1
  3856. The Kalman Filter creates a linear trend for each time series
  3857. being forecast based on the current observation or measurement of traffic
  3858. demand and the previous year's forecast of that demand. The observation and
  3859. forecasted traffic load are combined to produce a smoothed load that
  3860. corresponds to the level of the process, and a smoothed growth increment. 
  3861. The Kalman gain values\ \(*a\fI\fI\d\fIt\fR\uand \(*b\fI\fI\d\fIt\fR\ucan 
  3862. be either fixed or adaptive. In\ [16] Moreland presents a method for selecting 
  3863. fixed, robust parameters that provide adequate performance independent 
  3864. of system noise, measurement error, and 
  3865. initial conditions. For further details on the proper selection of these
  3866. parameters see\ [6], [20] and\ [22].
  3867. \v'1P'
  3868. .ce 1000
  3869. ANNEX\ C
  3870. .ce 0
  3871. .ce 1000
  3872. (to Recommendation\ E.507)
  3873. .sp 9p
  3874. .RT
  3875. .ce 0
  3876. .ce 1000
  3877. \fBExample of an econometric model\fR 
  3878. .sp 1P
  3879. .RT
  3880. .ce 0
  3881. .PP
  3882. To illustrate the workings of an econometric model, we
  3883. have chosen the model of United States billed minutes to Brazil. This model 
  3884. was selected among alternative models for three reasons: 
  3885. .sp 1P
  3886. .RT
  3887. .LP
  3888.     a)
  3889.     to demonstrate the introduction of explanatory variables,
  3890. .LP
  3891.     b)
  3892.     to point out difficulties associated with models used for
  3893. both the estimation of the structure and forecasting purposes, and
  3894. .LP
  3895.     c)
  3896.     to show how transformations may affect the
  3897. results.
  3898. .PP
  3899. The demand of United States billed minutes to Brazil (\fIMIN\fR ) is estimated 
  3900. by a 
  3901. log\(hylinear equation which includes United States billed messages to Brazil
  3902. (\fIMSG\fR ), a real
  3903. telephone price index (\fIRPI\fR ), United States personal income in 1972
  3904. prices (\fIYP\fR 72),
  3905. and real bilateral trade between the United States and Brazil (\fIRTR\fR 
  3906. ) as explanatory variables. This model is represented as: 
  3907. \v'6p'
  3908. .ce 1000
  3909. ln(\fIMIN\fR )\fI\fI\d\fIt\fR\u= \(*b\d0\u\ +\ \(*b\d1\uln(\fIMSG\fR )\fI\fI\d\fIt\fR\u\ 
  3910. +\ \(*b\d2\uln(\fIRPI\fR )\fI\fI\d\fIt\fR\u\ +\ \(*b\d3\uln(\fIYP\fR 72)\fI\fI\d\fIt\fR\u\ 
  3911. +\ \(*b\d4\uln(\fIRTR\fR )\fI\fI\d\fIt\fR\u\ +\ \fIu\fR\d\fIt\fR\u 
  3912. .ce 0
  3913. .ad r
  3914. (C\(hy1)
  3915. .ad b
  3916. .RT
  3917. .LP
  3918. .sp 1
  3919. where \fIu\fR\d\fIt\fR\uis the error term of the regression and where, 
  3920. \(*b\d1\u\ >\ 0, 
  3921. \(*b\d2\u\ <\ 0, \(*b\d3\u\ >\ 0 and \(*b\d4\u\ >\ 0 are expected values.
  3922. .bp
  3923. .PP
  3924. Using ridge regression to deal with severe multicollinearity
  3925. problems, we estimate the equation over the 1971 |  |  (i.e. first quarter of
  3926. 1971) to 1979 |  |  interval and obtain the following results:
  3927. \v'6p'
  3928. .LP
  3929. ln(\fIMIN\fR )\fI\fI\d\fIt\fR\u= \(em3.489 + \fB(\fR 0.619\fB)\fR ln(\fIMSG\fR 
  3930. )\fI\fI\d\fIt\fR\u\(em \fB(\fR 0.447\fB)\fR ln(\fIRPI\fR )\fI\fI\d\fIt\fR\u+ 
  3931. \fB(\fR 1.166\fB)\fR ln(\fIYP\fR 72)\fI\fI\d\fIt\fR\u+ \fB(\fR 0.281\fB)\fR 
  3932. ln(\fIRTR\fR )\fI\fI\d\fIt\fR\u 
  3933. .ad r
  3934. In(\fIMIN\fR )\fI\fI\d\fIt\fR\u= \(em3.489 +
  3935. (0.035) 
  3936. ln(\fIMSG\fR )\fI\fI\d\fIt\fR\u\(em
  3937. (0.095) 
  3938. ln(\fIRPI\fR )\fI\fI\d\fIt\fR\u+
  3939. (0.269) 
  3940. ln(\fIYP\fR 72)\fI\fI\d\fIt\fR\u+
  3941. (0.084)
  3942.     (C\(hy2)
  3943. .ad b
  3944. .RT
  3945. .LP
  3946.     .sp 1
  3947. .ce 1000
  3948. \fIR\fR \u2\d = 0.985, \fISER\fR = 0.083, \fID\(hyW\fR = 0.922,
  3949. \fIk\fR \ =\ 0.10
  3950. .ce 0
  3951. .ad r
  3952. (C\(hy3)
  3953. .ad b
  3954. .RT
  3955. .LP
  3956. .sp 1
  3957. where 
  3958. \fIR\fR \u2\d is the adjusted coefficient of
  3959. determination, \fISER\fR is the
  3960. standard error of the regression, D\(hyW is the Durbin\(hyWatson statistic, 
  3961. and \fIk\fR is the ridge regression constant. The values in parentheses 
  3962. under the equation are the estimated standard deviation of the estimated 
  3963. parameters \*^\(*b\d1\u, \(*b\(34d2\u, \*^\(*b\d3\u, \*^\(*b\d4\u. 
  3964. .PP
  3965. The introduction of messages as an explanatory variable in this
  3966. model was necessitated by the fact that since the mid\(hyseventies transmission
  3967. quality has improved and completion rates have risen while, at the same 
  3968. time, the strong growth in this market has begun to dissipate. Also, the 
  3969. growth rates for some periods could not have been explained by rate activity 
  3970. on either side or real United States personal income. The behaviour of 
  3971. the message variable in the minute equation was able to account for all 
  3972. these factors. 
  3973. .PP
  3974. Because the model serves a dual purpose \(em namely, structure estimation 
  3975. and forecasting \(em at least one more variable is introduced than if the 
  3976. model 
  3977. were to be used for forecasting purposes alone. The introduction of additional 
  3978. explanatory variables results in severe multicollinearity and necessitates 
  3979. employing ridge regression which lowers 
  3980. \fIR\fR \u2\d and
  3981. the Durbin\(hyWatson statistic.
  3982. Consequently, the predictive power of the model is reduced somewhat.
  3983. .PP
  3984. The effect of transforming the variables of a model are shown in the ex\(hypost 
  3985. forecast analysis performed on the model of United States billed 
  3986. minutes to Brazil.
  3987. The deviations using levels of the variables are larger than those of the
  3988. logarithms
  3989. of the variables which were used to obtain a better fit (the estimated 
  3990. RMSE for the log\(hylinear regression model is 0.119 | 27). The forecast 
  3991. results in level 
  3992. and logarithmic form are shown in Table\ C\(hy1/E.507.
  3993. .RT
  3994. .LP
  3995. .sp 2
  3996. .ce
  3997. \fBH.T. [T1.507]\fR 
  3998. .ce
  3999. TABLE\ C\(hy1/E.507
  4000. .ps 9
  4001. .vs 11
  4002. .nr VS 11
  4003. .nr PS 9
  4004. .TS
  4005. center box;
  4006. lw(30p) | cw(90p) | cw(108p) .
  4007.     Logarithms    Levels
  4008. .TE
  4009. .TS
  4010. box center ;
  4011. lw(30p) | cw(30p) | cw(30p) | cw(30p) | cw(36p) | cw(36p) | cw(36p) .
  4012.     Forecast    Actual    % deviation    Forecast    Actual    % deviation
  4013. _
  4014. .T&
  4015. rw(30p) | cw(30p) | cw(30p) | cw(30p) | cw(36p) | cw(36p) | cw(36p) .
  4016. 1980:\ 1    14.858    14.938    \(em0.540    2 | 36 | 69    3 | 73 | 97    \(em\ 7.725
  4017. 2    14.842    14.972    \(em0.872    2 | 91 | 50    3 | 80 | 34    \(em12.234
  4018. 3    14.916    15.111    \(em1.296    3 | 05 | 37    3 | 54 | 92    \(em17.746
  4019. 4    14.959    15.077    \(em0.778    3 | 37 | 98    3 | 29 | 16    \(em11.089
  4020. 1981:\ 1    15.022    15.102    \(em0.535    3 | 41 | 33    3 | 21 | 35    \(em\ 7.731
  4021. 2    14.971    15.141    \(em1.123    3 | 75 | 77    3 | 62 | 92    \(em15.601
  4022. 3    15.395    15.261    \(em 0.879    4 | 52 | 78    4 | 44 | 78    \ 14.333
  4023. 4    15.405    15.302    \(em 0.674    4 | 01 | 46    4 | 21 | 55    \(em 10.844
  4024. 1982:\ 1    15.365    15.348    \(em 0.110    4 | 09 | 65    4 | 30 | 38    \(em \ 1.702
  4025. 2    15.326    15.386    \(em0.387    4 | 28 | 47    4 | 07 | 01    \(em\ 5.802
  4026. _
  4027. .TE
  4028. .nr PS 9
  4029. .RT
  4030. .ad r
  4031. \fBTable C\(hy1/E.507 [T1.507] p.\fR 
  4032. .sp 1P
  4033. .RT
  4034. .ad b
  4035. .RT
  4036. .LP
  4037. .bp
  4038. .sp 2P
  4039. .LP
  4040.     \fBReferences\fR 
  4041. .sp 1P
  4042. .RT
  4043. .LP
  4044. [1]
  4045.     ABRAHAM (A.) and LEDOLTER (J.): Statistical methods for forecasting
  4046. \fIJ. Wiley\fR , New York, 1983.
  4047. .LP
  4048. [2]
  4049.      ANDERSON (O. | .): Time series analysis and forecasting. The Box\(hyJenkins 
  4050. approach. \fIButterworth\fR , London, 1976. 
  4051. .LP
  4052. [3]
  4053.     BOX (G. | . | .) and JENKINS (G. | .): Time Series Analysis:
  4054. Forecasting and Control, \fIHolden\(hyDay\fR , San Francisco, 1976.
  4055. .LP
  4056. [4]
  4057.     BROWN (R. | .): Introduction to random signal analysis and Kalman
  4058. Filtering. \fIJohn Wiley & Sons\fR , New York, 1983.
  4059. .LP
  4060. [5]
  4061.     CCITT: Manual planning data and forecasting methods, Vol.\ I and\ II,
  4062. \fIITU\fR , Geneva, 1988.
  4063. .LP
  4064. [6]
  4065.     CHEMOUIL (P.) and GARNIER (B.): An Adaptive Short\(hyTerm Traffic
  4066. Forecasting Procedure Using Kalman Filtering. \fIITC\ 11\fR , Tokyo, 1985.
  4067. .LP
  4068. [7]
  4069.     DRAPER (N.) and SMITH (H.): Applied Regression Analysis, Second
  4070. Edition, \fIJohn Wiley & Sons\fR , New York, 1981.
  4071. .LP
  4072. [8]
  4073.     DUTTA (M.): Econometric Methods, \fISouth\(hyWestern Publishing Co.\fR ,
  4074. Cincinnati, 1975.
  4075. .LP
  4076. [9]
  4077.      GARDNER (E. | . | r.): Exponential smoothing the state of art. \fIJournal\fR 
  4078. \fIof forecasting\fR , 4, pp. 1\(hy28, 1985. 
  4079. .LP
  4080. [10]
  4081.     GILCHRIST W.: Statistical forecasting. \fIJohn Wiley & Sons\fR ,
  4082. New York, 1976.
  4083. .LP
  4084. [11]
  4085.     GRANGER (C. | . | .) and NEWBOLD (P.): Forecasting Economic Time
  4086. Series, \fIAcademic Press\fR , New York, 1977.
  4087. .LP
  4088. [12]
  4089.     JOHNSTON (J.): Econometric Methods, Second Edition, \fIMcGraw\(hyHill\fR ,
  4090. New York, 1972.
  4091. .LP
  4092. [13]
  4093.     JUDGE (G. | .) \fIet\ al.\fR : The Theory and Practice of Econometrics,
  4094. \fIJohn Wiley & Sons\fR , New York, 1980.
  4095. .LP
  4096. [14]
  4097.      KMENTA (J.): Elements of Econometrics, \fIMacmillan Publishing Company\fR 
  4098. , New York, 1971. 
  4099. .LP
  4100. [15]
  4101.     MAKRIDAKIS (S.), WHEELWRIGHT (S. | .), McGEE (V. | E.): Forecasting
  4102. methods and applications Second Edition. \fIJohn Wiley & Sons\fR , New 
  4103. York, 1983. 
  4104. .LP
  4105. [16]
  4106.      MORELAND (J. | .): A robust sequential projection algorithm for traffic 
  4107. load forecasting. \fIThe Bell Technical Journal\fR , Vol.\ 61, No.\ 1, 
  4108. 1982. 
  4109. .LP
  4110. [17]
  4111.     NELSON (C. | .): Applied Time Series Analysis for Managerial
  4112. Forecasting, \fIHolden\(hyDay\fR , San Francisco, 1973.
  4113. .LP
  4114. [18]
  4115.     PACK (C. | .) and WHITAKER (B. | .): Kalman Filter models for network
  4116. forecasting. \fIThe Bell Technical Journal\fR , Vol.\ 61, No.\ 1, pp.\ 
  4117. 1\(hy9, 1982. 
  4118. .LP
  4119. [19]
  4120.     SORENSON (H. | .): Kalman filtering techniques. Advances in control
  4121. systems theory and applications. \fIAcademic Press\fR , Vol.\ 3, pp.\ 219\(hy292, 
  4122. 1966. 
  4123. .LP
  4124. [20]
  4125.     SZELAG (C. | .): A short\(hyterm forecasting algorithm for trunk demand
  4126. servicing. \fIThe Bell Technical Journal\fR , Vol.\ 61, No.\ 1, pp.\ 67\(hy96, 
  4127. 1982. 
  4128. .LP
  4129. [21]
  4130.     THEIL (H.): Principles of Econometrics, \fIJohn Wiley & Sons\fR ,
  4131. New\ York, 1971.
  4132. .LP
  4133. [22]
  4134.     TOME (F. | .) and CUNHA (J. | .): Traffic forecasting with a state
  4135. space model. \fIITC\ 11\fR , Tokyo, 1985.
  4136. .LP
  4137. [23]
  4138.     WONNACOTT (T. | .) and WONNACOTT (R. | .): Regression.
  4139. \fIJohn Wiley & Sons\fR , New York, 1981.
  4140. .sp 2P
  4141. .LP
  4142.     \fBBibliography\fR 
  4143. .sp 1P
  4144. .RT
  4145. .LP
  4146. PINDYCK (R. | .) and RUBINFELD (D. | .): Econometric Models and
  4147. Econometric Forecasts, \fIMcGraw\(hyHill\fR , New\ York, 1981.
  4148. .LP
  4149. SASTRI, (T.): A state space modelling approach for time series
  4150. forecasting. \fIManagement Science\fR , Vol.\ 31, No.\ 11, pp.\ 1451\(hy1470,
  4151. 1985.
  4152. .bp
  4153. .sp 2P
  4154. .LP
  4155. \fBRecommendation\ E.508\fR 
  4156. .RT
  4157. .sp 2P
  4158. .sp 1P
  4159. .ce 1000
  4160. \fBFORECASTING\ NEW\ INTERNATIONAL\ SERVICES\fR 
  4161. .EF '%    Fascicle\ II.3\ \(em\ Rec.\ E.508''
  4162. .OF '''Fascicle\ II.3\ \(em\ Rec.\ E.508    %'
  4163. .ce 0
  4164. .sp 1P
  4165. .LP
  4166. \fB1\fR     \fBIntroduction\fR 
  4167. .sp 1P
  4168. .RT
  4169. .PP
  4170. The operation and administration of an international
  4171. telecommunications network should include the consideration of subscriber
  4172. demands for new services which may have different characteristics than the
  4173. traditional traffic (i.e. peak busy hours, bandwidth requirements, and 
  4174. average call durations may be different). By addressing these new demands, 
  4175. Administrations can be more responsive to customer requirements for innovative 
  4176. telecommunications services. Based on the type of service and estimated 
  4177. demand for a service, network facilities and capacity may have to be augmented. 
  4178. An 
  4179. augmentation of the international network could require large capital
  4180. investments and additional administrative functions and responsibilities.
  4181. Therefore, it is appropriate that Administrations forecast new international
  4182. services within their planning process.
  4183. .PP
  4184. This Recommendation presents methods for forecasting new services. The 
  4185. definitions of some of the characteristics of these services, together 
  4186. with 
  4187. their requirements, are covered in \(sc\ 2, followed by base data requirements
  4188. in \(sc\ 3. \(sc\ 4 discusses research to identify the potential market.
  4189. Presentation of forecasting methods are contained in \(sc\ 5. \(sc\ 6 concludes 
  4190. with 
  4191. forecast tests and adjustments.
  4192. .RT
  4193. .sp 2P
  4194. .LP
  4195. \fB2\fR     \fBNew service definitions\fR 
  4196. .sp 1P
  4197. .RT
  4198. .PP
  4199. 2.1
  4200. A distinction exists between those services which are
  4201. enhancements of existing services carried on the existing network and those
  4202. services which are novel.
  4203. .sp 9p
  4204. .RT
  4205. .PP
  4206. Many of the services in this latter category will be carried on
  4207. the Integrated Services Digital Network (ISDN). It is not the purpose of 
  4208. this section to provide an exhaustive list of services but rather to establish 
  4209. framework for their classification. This framework is required because
  4210. different base data and forecasting strategies may be necessary in each case.
  4211. .sp 1P
  4212. .LP
  4213. 2.2
  4214.     \fBenhanced services offered over the existing network\fR 
  4215. .sp 9p
  4216. .RT
  4217. .PP
  4218. These are services which are offered over the existing network,
  4219. and which offer an enhancement of the original use for which the network was
  4220. intended. Services such as the international freephone service, credit card
  4221. calling and closed user groups are examples of enhancements of voice services; 
  4222. while facsimile, telefax and videotex are examples of non\(hyvoice services. 
  4223. These services may be carried over the existing network and, therefore, data
  4224. will concern usage or offered load specific to the enhancement. Arrangements
  4225. can be established for the measurement of this traffic, such as the use of
  4226. special network access codes for non\(hyvoice applications or by sampling 
  4227. outgoing circuits for the proportion of non\(hyvoice to voice traffic. 
  4228. .RT
  4229. .sp 1P
  4230. .LP
  4231. 2.3
  4232.     \fBnovel services\fR 
  4233. .sp 9p
  4234. .RT
  4235. .PP
  4236. Novel services are defined as totally new service offerings many of which 
  4237. may be carried over the ISDN. In the case of ISDN, 
  4238. Recommendation\ I.210 divides telecommunications services into two broad
  4239. categories: bearer services and teleservices. Recommendation\ I.210 further
  4240. defines supplementary services which modify or supplement a basic
  4241. telecommunications service. The definition of bearer services supported by the
  4242. .PP
  4243. ISDN is contained in Recommendations\ I.210 and\ I.211, while that for
  4244. teleservices is found in Recommendations\ I.210 and\ I.212. Bearer services 
  4245. may include circuit switched services from 64\ kbit/s to 2\ Mbit/s and 
  4246. packet 
  4247. services. Circuit switched services above 2\ Mbit/s are for further study.
  4248. .PP
  4249. Teleservices may include Group 4 facsimile, mixed mode text and
  4250. facsimile, 64\ kbit/s Teletex and Videotex, videophone, videoconferencing,
  4251. electronic funds transfer and point of sale transaction services. These 
  4252. lists are not exhaustive but indicate the nature and scope of bearer services 
  4253. and 
  4254. teleservices. Examples of new services are diagrammatically presented in
  4255. Table\ 1/E.508.
  4256. .bp
  4257. .RT
  4258. .ce
  4259. \fBH.T. [T1.508]\fR 
  4260. .ce
  4261. TABLE\ 1/E.508
  4262. .ce
  4263. \fBExamples of enhanced and novel services\fR 
  4264. .ps 9
  4265. .vs 11
  4266. .nr VS 11
  4267. .nr PS 9
  4268. .TS
  4269. center box;
  4270. cw(90p) | cw(54p) sw(66p) , ^  | c | c.
  4271.  {
  4272. Enhancement of
  4273. existing services
  4274.  }    \*QNovel\*U services
  4275.     Bearer services    Teleservices
  4276. _
  4277. .T&
  4278. lw(90p) | lw(54p) | lw(66p) .
  4279. Teletex    Packet    Group 4 facsimile
  4280. .T&
  4281. lw(90p) | lw(54p) | lw(66p) .
  4282. Facsimile        Mixed mode
  4283. .T&
  4284. lw(90p) | lw(54p) | lw(66p) .
  4285. Videotex        Videophone
  4286. .T&
  4287. lw(90p) | lw(54p) | lw(66p) .
  4288. Message handling systems    Circuit switched services    Videoconferencing
  4289. .T&
  4290. lw(90p) | lw(54p) | lw(66p) .
  4291. International freephone    \(em 64 kbit/s    Electronic funds transfer
  4292. .T&
  4293. lw(90p) | lw(54p) | lw(66p) .
  4294. Credit cards    \(em 2 Mbit/s    Point of sale transactions
  4295. .T&
  4296. lw(90p) | lw(54p) | lw(66p) .
  4297. Closed user groups         {
  4298. Teletex (64 kbit/s)
  4299. Videotex (64 kbit/s)
  4300.  }
  4301. _
  4302. .TE
  4303. .nr PS 9
  4304. .RT
  4305. .ad r
  4306. \fBTable 1/E.508 [T1.508], p.\fR 
  4307. .sp 1P
  4308. .RT
  4309. .ad b
  4310. .RT
  4311. .sp 2P
  4312. .LP
  4313. \fB3\fR     \fBBase data for forecasting\fR 
  4314. .sp 1P
  4315. .RT
  4316. .sp 1P
  4317. .LP
  4318. 3.1
  4319.     \fIMeasurement of enhanced services\fR 
  4320. .sp 9p
  4321. .RT
  4322. .PP
  4323. Measurements for existing services are available in terms of
  4324. calls, minutes, Erlangs,\ etc. These procedures are covered in
  4325. Recommendation\ E.506, \(sc\ 2. In order to measure/identify enhanced service 
  4326. data 
  4327. .PP
  4328. from other traffic data on the same network it may be necessary to establish
  4329. sampling or other procedures to aid in the estimation of this traffic, as
  4330. described in \(sc\ 4 and \(sc\ 5.
  4331. .RT
  4332. .sp 1P
  4333. .LP
  4334. 3.2
  4335.     \fINovel services\fR 
  4336. .sp 9p
  4337. .RT
  4338. .PP
  4339. Novel services, as defined in \(sc 2, may be carried on the ISDN. In the 
  4340. case of the ISDN, circuit switched bearer services and their associated 
  4341. teleservices will be measured in 64\ kbit/s increments. Packet switched 
  4342. bearer services and associated teleservices will be measured by a unit 
  4343. of throughput, for example, kilocharacters or kilopackets per second. Other 
  4344. characteristics 
  4345. needed will reflect service quality measurements such as: noise, echo,
  4346. post\(hydialing delay, clipping, bit\(hyerror rate, holding time, set\(hyup 
  4347. time, 
  4348. error\(hyfree seconds,\ etc.
  4349. .RT
  4350. .sp 2P
  4351. .LP
  4352. \fB4\fR     \fBMarket research\fR 
  4353. .sp 1P
  4354. .RT
  4355. .PP
  4356. Market research is conducted to test consumer response and
  4357. behaviour. This research employs the methods of questionnaires, market
  4358. analysis, focus groups and interviews. Its purpose is to determine consumers' 
  4359. intentions to purchase a service, attitudes towards new and existing services, 
  4360. price sensitivity and cross service elasticities. Market research helps 
  4361. make 
  4362. .PP
  4363. decisions concerning which new services should be developed. A combination 
  4364. of the qualitative and quantitative phases of market research can be used 
  4365. in the initial stages of forecasting the demand for a new service. 
  4366. .PP
  4367. The design of market research considers a sampling frame,
  4368. customer/market stratification, the selection of a statistically random 
  4369. sample and the correction of results for non\(hyresponse bias. The sample 
  4370. can be drawn 
  4371. from the entire market or from subsegments of the market. In sampling different 
  4372. market segments, factors which characterize the segments must be alike 
  4373. with 
  4374. respect to consumer behaviour (small intragroup variance) and should differ 
  4375. as much as possible from other segments (large intergroup variance); each 
  4376. segment is homogeneous while different segments are heterogeneous. 
  4377. .bp
  4378. .PP
  4379. The market research may be useful in forecasting existing services or the 
  4380. penetration of new services. The research may be used in forecasting novel 
  4381. services or any service which has no historical series of demand data. 
  4382. It is 
  4383. important that potential consumers be given a complete description of the 
  4384. new service, including the terms and conditions which would accompany its 
  4385. provisioning. It is also important to ask the surveyees whether they would
  4386. purchase the new service under a variety of illustrative tariff structures
  4387. .PP
  4388. and levels. This aspect of market research will aid in redimensioning the
  4389. demand upon final determination of the tariff structure and determining the
  4390. customers' initial price sensitivity.
  4391. .RT
  4392. .sp 2P
  4393. .LP
  4394. \fB5\fR     \fBForecasting procedures\fR 
  4395. .sp 1P
  4396. .RT
  4397. .sp 1P
  4398. .LP
  4399. 5.1
  4400.     \fIGeneral\fR 
  4401. .sp 9p
  4402. .RT
  4403. .PP
  4404. The absence of historical data is the fundamental difference
  4405. between forecasting new services and forecasting existing services. The
  4406. forecast methodology is dependent on the base data. For example, for a 
  4407. service that is planned but has not been introduced, market research survey 
  4408. data can be used. If the service is already in existence in some countries, 
  4409. forecasting 
  4410. procedures for its introduction to a new country will involve historical 
  4411. data on other countries, its application to the new country and comparison 
  4412. of 
  4413. characteristics between countries.
  4414. .RT
  4415. .sp 1P
  4416. .LP
  4417. 5.2
  4418.     \fISampling and questionnaire design\fR 
  4419. .sp 9p
  4420. .RT
  4421. .PP
  4422. The forecasting procedure for novel services based on market
  4423. research is made up of five consecutive steps. The first of these consists 
  4424. in defining the scope of the study. 
  4425. .PP
  4426. The second step involves the definition and selection of a sample from 
  4427. the population, where the population includes all potential customers which 
  4428. can be identified by qualitative market research developed through interviews 
  4429. at 
  4430. focus groups. The research can use stratified samples which involves grouping 
  4431. the population into homogeneous segments (or strata) and then sampling 
  4432. within each strata. Stratification prevents the disproportionate representation 
  4433. of 
  4434. some parts of the population that can result by chance with simple random
  4435. sampling. The sample can be structured to include specified numbers of
  4436. respondents having characteristics that are known, or believed, to affect 
  4437. the subject of the research. Examples of customer characteristics would 
  4438. be 
  4439. socio\(hyeconomic background and type of business.
  4440. .PP
  4441. The third step is the questionnaire design. A trade\(hyoff exists between 
  4442. obtaining as much information as practical and limiting the questionnaire 
  4443. to a reasonable length, as determined by the surveyor. Most questionnaires 
  4444. have 
  4445. three basic sections:
  4446. .RT
  4447. .LP
  4448.     1)
  4449.      qualifying questions to determine if a knowledgeable person has been 
  4450. contacted; 
  4451. .LP
  4452.     2)
  4453.      basic questions including all questions which constitute the body of 
  4454. the questionnaire; 
  4455. .LP
  4456.     3)
  4457.     classification questions collecting background on
  4458. demographic information.
  4459. .PP
  4460. The fourth step involves the implementation of the research \(em the actual 
  4461. surveying portion. Professional interviewers, or firms specializing 
  4462. in market research should be employed for interviewing.
  4463. .PP
  4464. The fifth and final step is the tabulation and analysis of the survey data. 
  4465. \(sc\ 5.3\(hy5.7 describe this process in detail. 
  4466. .RT
  4467. .sp 1P
  4468. .LP
  4469. 5.3
  4470.     \fIConversion ratios for the sample\fR 
  4471. .sp 9p
  4472. .RT
  4473. .PP
  4474. Conversion ratios are used in estimating the proportion of
  4475. respondents expressing an interest in the service who will eventually
  4476. subscribe.
  4477. .PP
  4478. The analysis of the market research data based on a sample survey,
  4479. where a stratified sample is drawn across market segments, for a service 
  4480. that is newly introduced or is planned, is discussed below: 
  4481. .PP
  4482. Let
  4483. .RT
  4484. .LP
  4485.     \fIX\fR\d1\u\fI\fI\d\fIi\fR\u    =
  4486.     the proportion of firms in market
  4487. segment \fIi\fR  | hat are very interested in the service.
  4488. .LP
  4489.     \fIX\fR\d2\u\fI\fI\d\fIi\fR\u    =
  4490.     the proportion of firms in market segment
  4491. \fIi\fR  | hat are interested in the service.
  4492. .LP
  4493.     \fIX\fR\d3\u\fI\fI\d\fIi\fR\u    =
  4494.     the proportion of firms in market segment
  4495. \fIi\fR  | hat are not interested in the service.
  4496. .LP
  4497.     \fIX\fR\d4\u\fI\fI\d\fIi\fR\u    =
  4498.     the proportion of firms in market segment
  4499. \fIi\fR  | hat cannot decide whether they are interested or not.
  4500. .PP
  4501. The above example has 4 categories of responses. Greater of fewer categories 
  4502. may be used depending on the design of the questionnaire. 
  4503. .bp
  4504. .PP
  4505. Notice that
  4506. \v'6p'
  4507. .RT
  4508. .ad r
  4509. .ad b
  4510. .RT
  4511. .LP
  4512. where \fIj\fR = the index of categories of responses.
  4513. .PP
  4514. Market research firms sometimes determine conversion ratios for
  4515. selected product/service types. Conversion ratios depend on the nature 
  4516. of the service, the type of respondents, and the questionnaire and its 
  4517. implementation. Conversion ratios applied to the sample will estimate the 
  4518. expected proportion of firms \fIin the survey\fR  | hat will eventually 
  4519. subscribe, over the planning 
  4520. period. For studies related to the estimation of conversion ratios, refer
  4521. to\ [1], [3] and\ [5].
  4522. .PP
  4523. Then,
  4524. .RT
  4525. .LP
  4526.     \fIc\fR\d1\u\fIX\fR\d1\u\fI\fI\d\fIi\fR\u    =
  4527.     the proportion of firms in market segment
  4528. \fIi\fR  | hat expressed a strong interest and are expected to subscribe.
  4529. .LP
  4530.     \fIc\fR\d2\u\fIX\fR\d2\u\fI\fI\d\fIi\fR\u    =
  4531.     the proportion of firms in market segment
  4532. \fIi\fR  | hat expressed an interest and are expected to subscribe.
  4533. .LP
  4534.     \fIc\fR\d3\u\fIX\fR\d3\u\fI\fI\d\fIi\fR\u    =
  4535.     the proportion of firms in market segment
  4536. \fIi\fR  | hat expressed no interest but are expected to subscribe.
  4537. .LP
  4538.     \fIc\fR\d4\u\fIX\fR\d4\u\fI\fI\d\fIi\fR\u    =
  4539.     the proportion of undecided firms in
  4540. market segment\ \fIi\fR  | hat are expected to subscribe.
  4541. .LP
  4542.     where \fIc\fR\d\fIj\fR\u    =
  4543.     conversion ratio for response \fIj\fR .
  4544. .PP
  4545. The proportion of firms in market segment \fIi\fR , \fIP\fR\d\fIi\fR\u, 
  4546. that are expected to subscribe to the service, equals 
  4547. \v'6p'
  4548. .ad r
  4549. .ad b
  4550. .RT
  4551. .PP
  4552. The conversion ratio is based on the assumption that there is a
  4553. 100% market awareness. That is, all surveyees are fully informed of the 
  4554. service availability, use, tariffs, technical parameters,\ etc. \fIP\fR\d\fIi\fR\u, 
  4555. .PP
  4556. therefore, can be interpreted as the long\(hyrun proportion of firms in market
  4557. segment\ \fIi\fR  | hat are expected to subscribe to the service at some 
  4558. future time period,\ \fIT\fR . 
  4559. .PP
  4560. Two issues arise in the estimation of the proportion of customers that 
  4561. subscribe to the service: 
  4562. .RT
  4563. .LP
  4564.     1)
  4565.     while \fIP\fR\d\fIi\fR\urefers to the sample surveyed, the results
  4566. need to be extrapolated to represent the population.
  4567. .LP
  4568.     2)
  4569.     \fIP\fR\d\fIi\fR\uis the long\(hyrun (maximum) proportion of firms
  4570. expected to subscribe. We are interested in predicting no just the eventual
  4571. number of subscribers but, also, those at intermediate time periods before 
  4572. the service reaches a saturation point. 
  4573. .sp 1P
  4574. .LP
  4575. 5.4
  4576.     \fIExtrapolation from sample to population\fR 
  4577. .sp 9p
  4578. .RT
  4579. .PP
  4580. To extrapolate the data from the sample to represent the
  4581. population, let
  4582. .RT
  4583. .LP
  4584.     \fIN\fR\d\fIi\fR\u\ =
  4585.     size of market segment \fIi\fR  | measured for example,
  4586. by the number of firms in market segment\ \fIi\fR )
  4587. .PP
  4588. Then \fIS\fR\d\fIi\fR\u, the expected number of subscribers in the
  4589. planning horizon, equals:
  4590. \v'6p'
  4591. .ce 1000
  4592. \fIS\fR\d\fIi\fR\u= \fIP\fR\d\fIi\fR\u\fIN\fR\d\fIi\fR\u
  4593. .ce 0
  4594. .ad r
  4595. (5\(hy2)
  4596. .ad b
  4597. .RT
  4598. .sp 1P
  4599. .LP
  4600. .sp 1
  4601. 5.5
  4602.     \fIMarket penetration over time\fR 
  4603. .sp 9p
  4604. .RT
  4605. .PP
  4606. To determine the expected number of subscribers at various points in time 
  4607. before the service reaches maturity, let 
  4608. .bp
  4609. .PP
  4610. \fIp\fR\d\fIi\fR\\d\fIt\fR\u\ =\ the proportion of firms in market segment 
  4611. \fIi\fR 
  4612.  | hat are expected to subscribe at time\ \fIt\fR .
  4613. .PP
  4614. Clearly,
  4615. \v'6p'
  4616. .RT
  4617. .LP
  4618.     \fIp\fR\d\fIi\fR\\d\fIt\fR\u< \fIP\fR\d\fIi\fR\u
  4619. .LP
  4620. and
  4621.      \fIp\fR\d\fIi\fR\\d\fIt\fR\u\(ra \fIP\fR\d\fIi\fR\u\ as\ \fIt\fR \(ra | fIT\fR 
  4622. .PP
  4623. .sp 1
  4624. The relation between \fIp\fR\d\fIi\fR\\d\fIt\fR\uand \fIP\fR\d\fIi\fR\ucan 
  4625. be explicitly 
  4626. defined as:
  4627. \v'6p'
  4628. .ce 1000
  4629. \fIp\fR\d\fIi\fR\\d\fIt\fR\u= \fIa\fR\d\fIi\fR\\d\fIt\fR\u\(mu \fIP\fR\d\fIi\fR\u 
  4630. .ce 0
  4631. .ad r
  4632. (5\(hy3)
  4633. .ad b
  4634. .RT
  4635. .LP
  4636. .sp 1
  4637. .LP
  4638. \fIa\fR\d\fIi\fR\\d\fIt\fR\uis a penetration function, reflecting changing 
  4639. market awareness and acceptance of the service over time, in market segment\ 
  4640. \fIi\fR . An appropriate 
  4641. functional form for\ \fIa\fR\d\fIi\fR\\d\fIt\fR\ushould be bounded in the 
  4642. interval\ (0,1). 
  4643. .PP
  4644. As an example, let \fIa\fR\d\fIi\fR\\d\fIt\fR\ube a logistic function:
  4645. \v'6p'
  4646. .ce 1000
  4647. \fIa\fR\d\fIi\fR\\d\fIt\fR\u=
  4648. [Formula Deleted]
  4649. .ce 0
  4650. .ad r
  4651. (5\(hy4)
  4652. \v'1P'
  4653. \v'1p'
  4654. .ad b
  4655. .RT
  4656. .LP
  4657. .sp 1
  4658. \fIb\fR\d\fIi\fR\u\(= 0 is the speed with which \fIp\fR\d\fIi\fR\\d\fIt\fR\uapproaches 
  4659. \fIP\fR\d\fIi\fR\uin market 
  4660. segment\ \fIi\fR , as illustrated in Figure\ 1/E.508.
  4661. .PP
  4662. For other examples of non\(hylinear penetration functions, refer to the 
  4663. Annex\ A. 
  4664. .LP
  4665. .rs
  4666. .sp 12P
  4667. .ad r
  4668. \fBFigure 1/E.508, p.\fR 
  4669. .sp 1P
  4670. .RT
  4671. .ad b
  4672. .RT
  4673. .PP
  4674. The introduction of a new service will usually differ according to the 
  4675. market segment. The rate of penetration may be expressed as a function 
  4676. of time, and the speed of adjustment (\fIb\fR\d\fIi\fR\u) may vary across 
  4677. segments. 
  4678. Lower absolute values of\ \fIb\fR\d\fIi\fR\u, for the logistic function 
  4679. will imply 
  4680. faster rates of penetration.
  4681. .PP
  4682. While the form of the penetration function relating the rate of
  4683. penetration to time is the same for all segments, the parameter\ \fIb\fR\d\fIi\fR\uvaries 
  4684. across segments, being greater in segments with a later introduction of 
  4685. the new service. 
  4686. .RT
  4687. .LP
  4688.     Let \fIt\fR\d0\u\fI\fI\d\fIi\fR\u    =
  4689.     time period of introduction of service in market segment\ \fIi\fR .
  4690. .LP
  4691.     Then, \fIt\fR \ \(em\ \fIt\fR\d0\u\fI\fI\d\fIi\fR\u    =
  4692.     time period elapsed since
  4693. service was introduced in market segment\ \fIi\fR .
  4694. .PP
  4695. In the diagramatic illustration, of Figure 2/E.508, the service
  4696. has achieved the same level of market penetration\ \fIa\fR\d0\u, in\ \fIt\fR\d\fIC\fR\u 
  4697. periods after its introduction in market\ \fIC\fR as it did in\ \fIt\fR\d\fIA\fR\uperiods 
  4698. after its introduction in market segment\ \fIA\fR . Later introductions 
  4699. may not necessarily lead to faster rates of penetration across segments. 
  4700. However, within the same market segment, across countries with similar 
  4701. characteristics, such an 
  4702. expectation is reasonable.
  4703. .bp
  4704. .LP
  4705. .rs
  4706. .sp 14P
  4707. .ad r
  4708. \fBFigure 2/E.508, p.\fR 
  4709. .sp 1P
  4710. .RT
  4711. .ad b
  4712. .RT
  4713. .sp 1P
  4714. .LP
  4715. 5.6
  4716.     \fIGrowth of market segment over time\fR 
  4717. .sp 9p
  4718. .RT
  4719. .PP
  4720. The above discussion has accounted for gradual market penetration of the 
  4721. new service, by allowing\ \fIp\fR\d\fIi\fR\\d\fIt\fR\uto adjust to\ \fIP\fR\d\fIi\fR\uover 
  4722. time. 
  4723. The same argument can be extended to the size of market segment\ \fIi\fR  | ver
  4724. time.
  4725. .PP
  4726. Let \fIn\fR\d\fIi\fR\\d\fIt\fR\u= size of market segment \fIi\fR at time 
  4727. \fIt\fR . 
  4728. .PP
  4729. Then, the expected number of subscribers at time \fIt\fR  | n market
  4730. segment\ \fIi\fR , equals:
  4731. \v'6p'
  4732. .RT
  4733. .ce 1000
  4734. \fIs\fR\d\fIi\fR\\d\fIt\fR\u= \fIa\fR\d\fIi\fR\\d\fIt\fR\u\(mu \fIp\fR\d\fIi\fR\\d\fIt\fR\u\(mu 
  4735. \fIn\fR\d\fIi\fR\\d\fIt\fR\u 
  4736. .ce 0
  4737. .ad r
  4738. (5\(hy5)
  4739. .ad b
  4740. .RT
  4741. .LP
  4742. .sp 1
  4743. and
  4744. .LP
  4745.     \fIS\fR\d\fIt\fR\u\ =\ 
  4746. @ pile { sum above \fIi\fR } @\fIs\fR\d\fIi\fR\\d\fIt\fR\u= expected number of
  4747. subscribers across all market segments at time\ \fIt\fR .
  4748. .sp 1P
  4749. .LP
  4750. 5.7
  4751.     \fIQuantities forecasted\fR 
  4752. .sp 9p
  4753. .RT
  4754. .PP
  4755. The above procedure forecasts the expected number of customers for a new 
  4756. service within a country. Other quantities of interest may include lines, 
  4757. minutes, messages, revenue, packets, kilobits,\ etc. The most straight 
  4758. forward
  4759. .PP
  4760. forecasting method for some of these quantities is to assume constant
  4761. relationships such as:
  4762. .RT
  4763. .LP
  4764.     expected\ access\ lines
  4765.     =
  4766.     (average access lines)
  4767. \(mu expected number of subscribers
  4768. .LP
  4769.     expected\ minutes
  4770.     =
  4771.     (average use per line) \(mu expected
  4772. access lines
  4773. .LP
  4774.     expected\ messages
  4775.     =
  4776.     expected minutes/(average length of
  4777. conversation)
  4778. .LP
  4779.     expected\ revenue
  4780.     =
  4781.     (average rate per minute) \(mu expected
  4782. minutes
  4783. .PP
  4784. The constants, appearing in parentheses, above, can be determined through\ 
  4785. 1) the process of market research, or\ 2) past trends in similar 
  4786. services.
  4787. .sp 1P
  4788. .LP
  4789. 5.8
  4790.     \fIForecasting with historical data: application analysis\fR 
  4791. .sp 9p
  4792. .RT
  4793. .PP
  4794. After a new service has been introduced, historical data can be
  4795. analyzed to forecast demand for expanded availability to other countries.
  4796. Development of a new service will follow trends based on applications, 
  4797. such as data transmission, travel reservations, intracompany communications, 
  4798. and 
  4799. .PP
  4800. supplier contact. Applications of a service vary widely and no single
  4801. variable may be an adequate indicator of total demand.
  4802. .PP
  4803. The following procedure links demand to country characteristics for
  4804. forecasting expanded availability of a new service to other countries.
  4805. .bp
  4806. .RT
  4807. .LP
  4808.      Let \fID\fR = (\fID\fR\d\fIi\fR\u, \fID\fR\d2\u, |  |  |  |  |  | , \fID\fR\d\fIn\fR\u)` 
  4809. .LP
  4810. represent a vector of country\(hyspecific annual demand for the service 
  4811. across\ \fIn\fR  | ountries, where the service currently exists. Let \fIC\fR 
  4812. \ =\ matrix of\ \fIm\fR 
  4813.  | haracteristics relating to each of the\ \fIn\fR  | ountries that are 
  4814. reasonable 
  4815. explanatory variables of demand. The components of\ \fIm\fR  | ould vary 
  4816. depending 
  4817. on the nature of the service and its application.
  4818. .PP
  4819. Some essential components of \fIm\fR  | ould be the price of the
  4820. service (or an index representing its price) and some proxy for market
  4821. awareness. As discussed in earlier sections, market awareness is one of 
  4822. the key determinants of the rate of market penetration of the service. 
  4823. Reasonable 
  4824. proxies would be advertising expenditures and time (measured
  4825. as\ \fIt\fR *\ =\ \fIt\fR \ \(em\ \fIt\fR\d0\u) where\ \fIt\fR * would 
  4826. measure time 
  4827. elapsed since the service was first introduced at time\ \fIt\fR\d0\u. Market
  4828. .PP
  4829. awareness can be characterized as some non\(hylinear function of\ \fIt\fR *, as
  4830. presented in \(sc\ 5.5. Other components of\ \fIm\fR  | ay include socio\(hyeconomic 
  4831. characteristics of the customers, market size and location of customers.
  4832. .PP
  4833. The model that is estimated is:
  4834. \v'6p'
  4835. .RT
  4836. .ce 1000
  4837. \fID\fR = \fIC\fR \(*b + \fIu\fR 
  4838. .ce 0
  4839. .ad r
  4840. (5\(hy6)
  4841. .ad b
  4842. .RT
  4843. .LP
  4844. .sp 1
  4845. where
  4846. .LP
  4847.     \fIC\fR is a (\fIn\fR \(mu \fIm\fR ) matrix of country characteristics
  4848. .LP
  4849.     \fID\fR is a (\fIn\fR \(mu 1) vector of demand
  4850. .LP
  4851.     \(*b is a (\fIm\fR \(mu 1) vector of coefficients corresponding to each
  4852. of the \fIm\fR  | haracteristics
  4853. .LP
  4854.     \fIu\fR = (\fIn\fR \(mu 1) vector of error terms
  4855. .PP
  4856. The estimated regression is:
  4857. \v'6p'
  4858. .ce 1000
  4859. \fI\*^D\fR = \fIC\fR \*^\(*b
  4860. .ce 0
  4861. .ad r
  4862. (5\(hy7)
  4863. .ad b
  4864. .RT
  4865. .LP
  4866. .sp 1
  4867. .PP
  4868. Traditional methods of estimating regressions will be applied.
  4869. Equation\ (5\(hy7) can be used for predicting demand for any country where the
  4870. service is being newly introduced, as long as elements of the matrix\ \fIC\fR 
  4871.  | re available. 
  4872. .sp 1P
  4873. .LP
  4874. 5.9
  4875.     \fIForecasting with limited information\fR 
  4876. .sp 9p
  4877. .RT
  4878. .PP
  4879. In the extreme case where no market research data is available (or is uneconomical 
  4880. given resource constraints), or country characteristics that 
  4881. affect demand are not easily available or quantifiable, other methods of
  4882. forecasting need to be devised.
  4883. .PP
  4884. For example, to forecast the demand for a new international private
  4885. line service using digital technology, the following elements should be 
  4886. taken into account in the development of reasonable estimates of the expected 
  4887. number of lines: 
  4888. .RT
  4889. .LP
  4890.     a)
  4891.     discussions with foreign telephone companies,
  4892. .LP
  4893.     b)
  4894.     discussions with very large potential customers regarding their
  4895. future needs,
  4896. .LP
  4897.     c)
  4898.     service inquiries from customers,
  4899. .LP
  4900.     d)
  4901.     customer letters of intent, and
  4902. .LP
  4903.     e)
  4904.     any other similar qualitative information.
  4905. .sp 2P
  4906. .LP
  4907. \fB6\fR     \fBForecast tests and adjustments\fR 
  4908. .sp 1P
  4909. .RT
  4910. .sp 1P
  4911. .LP
  4912. 6.1
  4913.     \fIGeneral\fR 
  4914. .sp 9p
  4915. .RT
  4916. .PP
  4917. Forecast tests and adjustments are dependent on the methodology
  4918. applied. For example, in the case of a market research based forecast, it is
  4919. important to track the forecast of market size, awareness and rate of
  4920. penetration over time and to adjust forecasts accordingly. However, for an
  4921. application\(hybased methodology, traditional tests and adjustments applicable 
  4922. to regression methods will be employed, as discussed below. 
  4923. .RT
  4924. .sp 1P
  4925. .LP
  4926. 6.2
  4927.     \fIMarket research based analysis\fR 
  4928. .sp 9p
  4929. .RT
  4930. .PP
  4931. This section discusses adjustments to forecasts based on the
  4932. methodology described in \(sc\(sc\ 5.2 to\ 5.8. The methodology was based on
  4933. quantification of responses from a sample survey.
  4934. .PP
  4935. The forecast was done in two parts:
  4936. .RT
  4937. .LP
  4938.     a)
  4939.     extrapolating the sample to the population, using market
  4940. size,\ \fIN\fR\d\fIi\fR\u;
  4941. .LP
  4942.     b)
  4943.     allowing for gradual market penetration (awareness),
  4944. \fIa\fR\d\fIi\fR\\d\fIt\fR\uof the new service over time.
  4945. .bp
  4946. .PP
  4947. The values attributed to \fIn\fR\d\fIi\fR\\d\fIt\fR\u(which represents 
  4948. the size of market segment \fIi\fR at time\ \fIt\fR ) and \fIa\fR\d\fIi\fR\\d\fIt\fR\ucan 
  4949. be tracked over time and 
  4950. forecast adjustments made in the following manner:
  4951. .LP
  4952.     a)
  4953.     As an example for \fIn\fR\d\fIi\fR\\d\fIi\fR\u, the segments could be
  4954. categorized as travel or financial services. The size of the
  4955. segment would be the number of tourists, and the number of large
  4956. banks. Historical data, where available, on these units of
  4957. measurement can be used to forecast their sizes at any point of
  4958. time in the future. Where history is not available, reasonable
  4959. growth factors can be developed through subject matter experts
  4960. and past experiences. The forecast of \fIn\fR\d\fIi\fR\\d\fIt\fR\ushould be
  4961. tracked against actual measured values and adjusted for large
  4962. deviations.
  4963. .LP
  4964.     b)
  4965.     For \fIa\fR\d\fIi\fR\\d\fIt\fR\u, testing with only a few observations
  4966. since the introduction of the service is more difficult.
  4967. .LP
  4968.     Given that,
  4969. \v'6p'
  4970. .ce 1000
  4971. \fIa\fR\d\fIi\fR\\d\fIt\fR\u=
  4972. @ { fIp\fR\d\fIi\fR\\d\fIt\fR\ } over { fIP\fR\d\fIi\fR\ } @ 
  4973. .ce 0
  4974. .ad r
  4975. (6\(hy1)
  4976. \v'7p'
  4977. .ad b
  4978. .RT
  4979. .LP
  4980. .sp 1
  4981.     and \fIP\fR\d\fIi\fR\uis assumed fixed (in the long run), testing
  4982. \fIa\fR\d\fIi\fR\\d\fIt\fR\uis equivalent to testing\ \fIp\fR\d\fIi\fR\\d\fIt\fR\u. 
  4983. \fIp\fR\d\fIi\fR\\d\fIt\fR\ucan be tracked by observing the proportion of
  4984. respondents that actually subscribe to the service at time\ \fIt\fR .
  4985. This assumes the need to track the same individuals who were
  4986. originally in the survey, as is customary in a panel survey.
  4987. Panel data is collected through sample surveys of cross\(hysections
  4988. of the same individuals, over time. This method is commonly used
  4989. for household socio\(hyeconomic surveys. Having
  4990. observed\ \fIp\fR\d\fIi\fR\\d\fIt\fR\ufor a new period, values of\ \fIa\fR\d\fIi\fR\\d\fIt\fR\ucan 
  4991. be plotted against time to study the nature of the penetration
  4992. function, \fIa\fR\d\fIi\fR\\d\fIt\fR\u, and the most appropriate functional
  4993. .LP
  4994. form that fits the data should be chosen. At very early stages
  4995. of service introduction, traditional functional forms for market
  4996. penetration, such as a logistic function (as illustrated in the
  4997. example in \(sc\ 5.5), will be a reasonable form to assume. Other
  4998. variations of the functional form depicting market penetration
  4999. would be the Gompertz or Gauss growth curves. The restriction is
  5000. that the penetration function should be bounded in the
  5001. interval\ (0,1). See Annex\ A for an algebraic depiction of
  5002. functional forms.
  5003. .PP
  5004. There are various statistical forms that may be chosen as
  5005. representations for the penetration function. The appropriate functional 
  5006. form should be based on some theoretical based information such as the 
  5007. expected 
  5008. nature of penetration of the specific service over time.
  5009. .PP
  5010. Continuous tracking of \fIn\fR\d\fIi\fR\\d\fIt\fR\u, \fIp\fR\d\fIi\fR\\d\fIt\fR\uand 
  5011. \fIa\fR\d\fIi\fR\\d\fIt\fR\uover time will enable adjustments to these 
  5012. values whenever necessary and enable greater confidence in the forecasts. 
  5013. .RT
  5014. .sp 1P
  5015. .LP
  5016. 6.3
  5017.     \fIApplication based analysis\fR 
  5018. .sp 9p
  5019. .RT
  5020. .PP
  5021. The application based analysis is a regression based approach and traditional 
  5022. forecast tests for a regression model will apply. For instance, 
  5023. hypothesis tests on each of the explanatory variables included in the model
  5024. will be necessary. Corrections may be needed for hetero\(hyelasticity, serial
  5025. correlation and multicollinearity, when suspect. The methodology for performing 
  5026. such tests are described in most econometrics text books. In particular, 
  5027. references\ [2] and\ [4] can be used as guidelines. Recommendation\ E.507 also
  5028. discusses these corrections.
  5029. .PP
  5030. Adjustments need to be made for variables that should be included in the 
  5031. regression model but are not easily quantifiable. For example, market 
  5032. .PP
  5033. awareness that results from advertising and promotional campaigns plays an
  5034. important role in the growth of a new service, but data on such expenditures 
  5035. or the associated awareness may not be readily available. Some international 
  5036. services are targeted towards international travelers, and fluctuations in
  5037. exchange rates will be a determining factor. Such variables, while not
  5038. impossible to measure, may be expensive to acquire. However, expectations of
  5039. future trends in such variables can enable the forecaster to arrive at some
  5040. reasonable estimates of their impact on demand. Unexpected occurrences 
  5041. such as political turmoil and natural disasters in particular countries 
  5042. will also 
  5043. necessitate post forecast adjustments based upon managerial judgement.
  5044. .PP
  5045. Another important adjustment that may be necessary is the expected
  5046. competition from other carriers offering similar or substitutable services.
  5047. Competitor prices, if available, may be used as explanatory variables within
  5048. the model and allow the measurement of a cross\(hyprice impact. In most
  5049. situations, it is difficult to obtain competitor prices. In such cases, 
  5050. other methods of calculating competitor market shares need to be developed. 
  5051. .PP
  5052. Regardless of forecasting methodology, the final forecasts will have to 
  5053. be reviewed by management responsible for planning the service as well 
  5054. as 
  5055. .PP
  5056. by network engineers in order to assess the feasibility both from a planning
  5057. implementation and from a technical point of view.
  5058. \v'1P'
  5059. .bp
  5060. .RT
  5061. .ce 1000
  5062. ANNEX\ A
  5063. .ce 0
  5064. .ce 1000
  5065. (to Recommendation E.508)
  5066. .sp 9p
  5067. .RT
  5068. .ce 0
  5069. .ce 1000
  5070. \fBPenetration functions\fR \fB(growth curves)\fR 
  5071. .sp 1P
  5072. .RT
  5073. .ce 0
  5074. .PP
  5075. Some examples of non\(hylinear penetration functions are
  5076. illustrated below:
  5077. .sp 1P
  5078. .RT
  5079. .sp 1P
  5080. .LP
  5081. A.1
  5082.     \fILogistic curve\fR \v'6p'
  5083. .sp 9p
  5084. .RT
  5085. .ce 1000
  5086. \fIa\fR\d\fIi\fR\\d\fIt\fR\u= \(*a / {  + e\uD\dlF261\fI\fI
  5087. \u\fIt\fR\ }
  5088. .ce 0
  5089. .ad r
  5090. (A\(hy1)
  5091. .ad b
  5092. .RT
  5093. .LP
  5094. .sp 1
  5095. .PP
  5096. For \(*a = 1, the curve is bounded in the interval (0,1).
  5097. Changing\ \fIb\fR will alter the steepness of the curve. The higher the value
  5098. of\ \fIb\fR , the faster the rate of penetration. This curve is S\(hyshaped 
  5099. and is 
  5100. symmetrical about its point of inflection, the latter being where;
  5101. \v'6p'
  5102. .ce 1000
  5103. @ { \u2\d\fIa\fR\d\fIi\fR\\d\fIt\fR\ } over { \fIt\fR~\u2\d } @  = 0
  5104. .ce 0
  5105. .ad r
  5106. (A\(hy2)
  5107. \v'7p'
  5108. .ad b
  5109. .RT
  5110. .sp 1P
  5111. .LP
  5112. .sp 1
  5113. A.2
  5114.     \fIGompertz curve\fR \v'6p'
  5115. .sp 9p
  5116. .RT
  5117. .ce 1000
  5118. \fIa\fR\d\fIi\fR\\d\fIt\fR\u= \(*a exp 
  5119. [Formula Deleted]
  5120. .ce 0
  5121. .ad r
  5122. (A\(hy3)
  5123. \v'1p'
  5124. .ad b
  5125. .RT
  5126. .PP
  5127. .sp 1
  5128. As \fIt\fR \(ra \(if \fIa\fR\d\fIi\fR\\d\fIt\fR\u\(ra \(*a, the limiting 
  5129. growth. 
  5130. .PP
  5131. Holding \fIk\fR = 1 and \(*a = 1, higher values of \fIb\fR will imply slower 
  5132. rates of penetration. This curve is also S\(hyshaped like the logistic 
  5133. curve, but is not symmetrical about its inflection point. 
  5134. .PP
  5135. When \fIt\fR = 0, then \fIa\fR\d\fIi\fR\\d\fIt\fR\u= \(*ae\uD\dlF261\fI\fI
  5136. \u\fIb\fR\d, which is the initial
  5137. rate of penetration.
  5138. .RT
  5139. .sp 1P
  5140. .LP
  5141. A.3
  5142.     \fIGauss curve\fR \v'6p'
  5143. .sp 9p
  5144. .RT
  5145. .ce 1000
  5146. \fIa\fR\d\fIi\fR\\d\fIt\fR\u= \(*a 
  5147. @ left ( 1~\(em~e\uD\dlF261~\u\fIbt\fR~\u2\d~\d right ) @ 
  5148. .ce 0
  5149. .ad r
  5150. (A\(hy4)
  5151. .ad b
  5152. .RT
  5153. .LP
  5154.     As \fIt\fR \(ra \(if, then \fIa
  5155. \dit
  5156. \u\fR \(ra \(*a
  5157. .LP
  5158.     As \fIt\fR \(ra 0, then \fIa
  5159. \dit
  5160. \u\fR \(ra 0.
  5161. .PP
  5162. .sp 1
  5163. Choosing \(*a = 1, the curve is bounded in the interval (0,1).
  5164. .sp 2P
  5165. .LP
  5166.     \fBReferences\fR 
  5167. .sp 1P
  5168. .RT
  5169. .LP
  5170. [1]
  5171.     AXELROD (J. | .): Attitude measures that predict purchase, \fIJournal\fR 
  5172. \fIof Advertising Research\fR , Vol.\ 8, No.\ 1, pp.\ 3\(hy17, New York, 
  5173. March\ 1968. 
  5174. .LP
  5175. [2]
  5176.     JOHNSTON (J.): Econometric methods, Second Edition, \fIMcGraw\(hyHill\fR ,
  5177. New York, 1972.
  5178. .LP
  5179. [3]
  5180.     KALWANI (M. | .), SILK, (A. | .): On the reliability and predictive
  5181. validity of purchase intention measures, \fIMarketing Science\fR , Vol.\ 
  5182. 1, No.\ 3, 
  5183. pp.\ 243\(hy286, Providence, RI, Summer\ 1982.
  5184. .LP
  5185. [4]
  5186.     KMENTA (J.): Elements of econometrics, \fIMacmillan Publishing Co.\fR ,
  5187. New York, 1971.
  5188. .LP
  5189. [5]
  5190.      MORRISON (D. | .): Purchase intentions and purchase behavior, \fIJournal\fR 
  5191. \fIof Marketing\fR , Vol.\ 43, pp.\ 65\(hy74, Chicago, Ill., Spring\ 1979. 
  5192. .sp 2P
  5193. .LP
  5194.     \fBBibliography\fR 
  5195. .sp 1P
  5196. .RT
  5197. .LP
  5198. BEN\(hyAKIVA (M.) and LERMAN (S. | .): Discrete choice analysis.
  5199. .LP
  5200. DRAPER (N.) and SMITH (H.): Applied regression analysis, Second
  5201. Edition, \fIJohn Wiley & Sons\fR , New York, 1981.
  5202. .LP
  5203. .bp
  5204. .sp 1P
  5205. .ce 1000
  5206. \v'3P'
  5207. SECTION\ 3
  5208. .ce 0
  5209. .sp 1P
  5210. .ce 1000
  5211. \fBDETERMINATION\ OF\ THE\ \fR \fBNUMBER\ OF\ CIRCUITS\ IN\fR 
  5212. .ce 0
  5213. .sp 1P
  5214. .ce 1000
  5215. \fBMANUAL\ OPERATION\fR 
  5216. .ce 0
  5217. .sp 1P
  5218. .sp 2P
  5219. .LP
  5220. \fBRecommendation\ E.510\fR 
  5221. .FS
  5222. This Recommendation dates from the XIIIth
  5223. Plenary Assembly of the CCIF (London, 1946) and has not been fundamentally
  5224. revised since. It was studied under Question\ 13/II in the Study
  5225. Period\ 1968\(hy1972 and was found to be still valid.
  5226. .FE
  5227. .RT
  5228. .sp 2P
  5229. .ce 1000
  5230. \fBDETERMINATION\ OF\ THE\ NUMBER\ OF\ CIRCUITS\fR 
  5231. .EF '%    Fascicle\ II.3\ \(em\ Rec.\ E.510''
  5232. .OF '''Fascicle\ II.3\ \(em\ Rec.\ E.510    %'
  5233. .ce 0
  5234. .sp 1P
  5235. .ce 1000
  5236. \fBIN\ MANUAL\ OPERATION\fR 
  5237. .ce 0
  5238. .sp 1P
  5239. .PP
  5240. \fB1\fR 
  5241. The quality of an international 
  5242. manual demand
  5243. service
  5244. should be defined as the percentage of call requests which, during  the 
  5245. average busy hour
  5246. (as defined later under \(sc\ 3) cannot be satisfied immediately because 
  5247. no circuit is free in the relation considered. 
  5248. .sp 1P
  5249. .RT
  5250. .LP
  5251. .PP
  5252. By 
  5253. \fIcall requests satisfied immediately\fR are meant those for which the 
  5254. call is established by the same 
  5255. operator
  5256. who received the call, and within a period of two minutes from receipt 
  5257. of that call, whether the operator (when she does not immediately find 
  5258. a free circuit) continues 
  5259. observation of the group of circuits, or whether she makes several attempts 
  5260. in the course of this period. 
  5261. .PP
  5262. Ultimately, it will be desirable to evolve a corresponding definition based 
  5263. on the 
  5264. \fIaverage speed\fR of establishing calls
  5265. in the busy hour,
  5266. i.e.\ the average time which elapses between the moment when the operator has
  5267. completed the recording of the call request and the moment when the called
  5268. subscriber is on the line, or the caller receives the advice \fIsubscriber\fR 
  5269. \fIengaged\fR , \fIno reply\fR ,\ etc. But for the moment, in the absence 
  5270. of information about the operating time in the European international service, 
  5271. such a 
  5272. definition cannot be established.
  5273. .RT
  5274. .PP
  5275. \fB2\fR 
  5276. The number of circuits it is necessary to allocate to an
  5277. international relation, in order to obtain a given grade of service, should 
  5278. be determined as a function of the 
  5279. \fItotal holding time\fR of the group in
  5280. the busy hour.
  5281. .sp 9p
  5282. .RT
  5283. .PP
  5284. The total holding time is the product of the number of calls in
  5285. the busy hour and a factor which is the sum of the 
  5286. average call
  5287. duration
  5288. and the 
  5289. average operating time
  5290. .
  5291. .PP
  5292. These durations will be obtained by means of a large number of
  5293. observations made during the busy hours, by agreement between the
  5294. Administrations concerned. If necessary, the particulars entered on the 
  5295. tickets could also serve to determine the average duration of the calls. 
  5296. .PP
  5297. The average call duration will be obtained by dividing the total
  5298. number of minutes of conversation recorded by the recorded number of effective 
  5299. calls. 
  5300. .PP
  5301. The average operating time will be obtained by dividing the total
  5302. number
  5303. of minutes given to operating (including ineffective calls) by the number of
  5304. effective calls recorded.
  5305. .RT
  5306. .PP
  5307. \fB3\fR The number of calls in the busy hour will be determined from the 
  5308. average of returns taken during the busy hours on a certain number of busy 
  5309. days in the year. 
  5310. .sp 9p
  5311. .RT
  5312. .PP
  5313. Exceptionally busy days, such as those which occur around certain holidays, 
  5314. etc., will be eliminated from these returns. The Administrations 
  5315. concerned should plan, whenever possible, to put additional circuits into
  5316. service for these days.
  5317. .PP
  5318. In principle, these returns will be taken during the working days of two 
  5319. consecutive weeks, or during ten consecutive working days. If the monthly 
  5320. traffic curve shows only small variations, they will be repeated twice 
  5321. a year only. They will be taken three or four times a year or more if there 
  5322. are 
  5323. material seasonal variations, so that the average established is in
  5324. accordance with all the characteristic periods of traffic flow.
  5325. .bp
  5326. .RT
  5327. .PP
  5328. \fB4\fR The total occupied time thus determined should be increased by 
  5329. a certain amount determined by agreement between the Administrations concerned 
  5330. according to the statistics of traffic growth during earlier years, to take
  5331. account of the probable growth in traffic and the fact that putting new
  5332. circuits into service takes place some time after they are first found to be
  5333. necessary.
  5334. .sp 9p
  5335. .RT
  5336. .LP
  5337. .PP
  5338. \fB5\fR The 
  5339. total holding time of the circuits
  5340. thus obtained, in
  5341. conjunction
  5342. with a suitable table (see Table\ 1/E.510), will enable the required number 
  5343. of circuits to be ascertained. 
  5344. .sp 9p
  5345. .RT
  5346. .PP
  5347. \fB6\fR In the international manual telephone service, the following
  5348. Tables\ A and\ B should be used as a basis of minimum allocation:
  5349. .sp 9p
  5350. .RT
  5351. .PP
  5352. Table\ A corresponds to about 30% of calls failing at the first
  5353. attempt because of all circuits being engaged and to about 20% of the calls
  5354. being deferred.
  5355. .PP
  5356. Table\ B, corresponding to about 7% of calls deferred, will be used
  5357. whenever possible.
  5358. .PP
  5359. These tables do not take account of the fact that the possibility of
  5360. using secondary routes permits, particularly for small groups, an increase 
  5361. in the permissible occupation time. 
  5362. .RT
  5363. .LP
  5364. .sp 1
  5365. .ce
  5366. \fBH.T. [T1.510]\fR 
  5367. .ce
  5368. TABLE\ 1/E.510
  5369. .ce
  5370. \fBCapacity of circuit groups\fR 
  5371. .ce
  5372. (See Supplement No. 2 at the end of this fascicle)
  5373. .ps 9
  5374. .vs 11
  5375. .nr VS 11
  5376. .nr PS 9
  5377. .TS
  5378. center box;
  5379. cw(36p) | cw(48p) sw(48p) | cw(48p) sw(48p) , ^  | c | c | c | c.
  5380. Number of  circuits    Table A    Table B
  5381.     Percentage of  circuit usage     {
  5382. Minutes of circuit usage possible
  5383. in the busy hour
  5384.  }    Percentage of  circuit usage     {
  5385. Minutes of circuit usage possible
  5386. in the busy hour
  5387.  }
  5388. _
  5389. .T&
  5390. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5391. \ 1    65.0    \ \ 39    \(em    \(em
  5392. .T&
  5393. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5394. \ 2    76.7    \ \ 92    46.6    \ \ 56
  5395. .T&
  5396. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5397. \ 3    83.3    \ 150    56.7    \ 102
  5398. .T&
  5399. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5400. \ 4    86.7    \ 208    63.3    \ 152
  5401. .T&
  5402. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5403. \ 5    88.6    \ 266    68.3    \ 205
  5404. .T&
  5405. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5406. \ 6    90.0    \ 324    72.0    \ 259
  5407. .T&
  5408. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5409. \ 7    91.0    \ 382    74.5    \ 313
  5410. .T&
  5411. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5412. \ 8    91.7    \ 440    76.5    \ 367
  5413. .T&
  5414. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5415. \ 9    92.2    \ 498    78.0    \ 421
  5416. .T&
  5417. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5418. 10    92.6    \ 556    79.2    \ 475
  5419. .T&
  5420. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5421. 11    93.0    \ 614    80.1    \ 529
  5422. .T&
  5423. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5424. 12    93.4    \ 672    81.0    \ 583
  5425. .T&
  5426. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5427. 13    93.6    \ 730    81.7    \ 637
  5428. .T&
  5429. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5430. 14    93.9    \ 788    82.3    \ 691
  5431. .T&
  5432. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5433. 15    94.1    \ 846    82.8    \ 745
  5434. .T&
  5435. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5436. 16    94.2    \ 904    83.2    \ 799
  5437. .T&
  5438. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5439. 17    94.3    \ 962    83.6    \ 853
  5440. .T&
  5441. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5442. 18    94.4    1020    83.9    \ 907
  5443. .T&
  5444. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5445. 19    94.5    1078    84.2    \ 961
  5446. .T&
  5447. cw(36p) | cw(48p) | cw(48p) | cw(48p) | cw(48p) .
  5448. 20    94.6    1136    84.6    1015
  5449. .TE
  5450. .LP
  5451. \fINote\fR
  5452. \ \(em\ Tables A and B can be extended for groups comprising more than
  5453. 20 circuits by using the values given for 20\ circuits.
  5454. .nr PS 9
  5455. .RT
  5456. .ad r
  5457. \fBTableau 1/E.510 [T1.510], p.16\fR 
  5458. .sp 1P
  5459. .RT
  5460.